2020秋招,牛客上面面试问到的问题整理,太过简单的没有记录,太偏的没有记录,主要涵盖深度学习、机器学习、目标检测

1.介绍一下faster rcnn

2.faster rcnn如何进行feature map选取的

3.faster rcnn中的anchor作用,怎么进行不同box提取

4.yolo和faster rcnn区别

5.有哪些激活函数,有什么用,各自的特点,改进了什么?

6.池化怎么进行反向传播

7.介绍逻辑回归以及其损失函数,LR推倒

8.如何解决类别不平衡问题

9.ResNet的特点

10.为什么使用1x1卷积?哪些情况下使用1x1卷积?

11.SVM原理,具有哪些核函数,软间隔是怎么做的

12.L1正则化和L2正则化区别,为什么L1能够产生稀疏性

13.如何解决前景背景数量不均衡

14.mobilenetv1和v2的区别

15.训练过程中loss一直无法收敛,可能的情况

16.为什么卷积核都是基数(padding角度)

17.双线性插值

18.inception如何减少计算量

19.反卷积操作

20.SSD里面的OHEM,正负样本为什么是1:3

21.SSD缺点,特点,介绍

22.FPN结构,FPN主要解决什么问题

23.Inception和resnet区别

24.细粒度分类用inception还是resnet好,类别不平衡用inception还是resnet好

25.roi align和roi pooling区别

26.介绍cascade rcnn

27.shufflenet

28.FCOS模型的思想

29.怎么加快网络的收敛速度

30.求cross entropy的值

31.如何解决过拟合

32.YOLOv3和SSD的致命缺点

33.检测的框角度偏移如何解决

34.SSD和Faster RCNN的本质区别

35.遇见过梯度消失没有,常用框架是怎么判断梯度消失的

36.PCA,SVD分解的区别与联系

37.学习率衰减策略

38.LR和SVM的联系和区别

39.梯度消失和梯度爆炸出现的原因

40.介绍一下BCE loss Dice loss, focal loss,triplet loss, center loss

41.mAP计算

42.空洞卷积

43.yolo和SSD的区别

44.kmeans和GMM区别与联系

45.python装饰器,python迭代器和生成器

46.AUC衡量模型的什么能力

47.各种优化器性能比较

48.ohem和focal loss的关系

49.BN在训练期间和测试期间的区别

50.感受野计算

51.KKT条件

52.python动态数组如何实现的

53.anchor大小选取,长宽比选取

54.为什么mobilenet、shufflenet在理论上面速度很快,但是工程上并没有特别大的提升

55.为什么卷积核一般都是奇数

56.倾斜边界框检测如何计算IOU值

57.BN前向传播公式,注意train和infer的区别

58.BN为什么能够加速模型收敛?为什么具有更好的泛化能力

59.Relu,sigmoid,tanh函数公式,范围,导数公式,范围

60.为什么采用小卷积核(使用3x3而不是5x5,7x7)

61.upsample和pooling存在的问题

62.python的深拷贝和浅拷贝

63.AUC和F1-score

64.softmax和sigmoid的区别

65.NMS算法优化,性能优化

66.smooth l1损失函数

67.怎么消除漏检和误检

68.特征相关性会对模型产生什么影响?如何解决

69.如何解决梯度消失和梯度爆炸

70.如何使用pytorch做模型压缩和模型蒸馏,分类和检测方向

71.使用numpy写一个batchnorm层

72.简要介绍一下yolo系列

73.IOU loss,GIOU loss,DIOU loss

74.简要介绍一下rcnn系列

75.smooth l1特点

76.常见优化器各自特点,SGD,Adam

77.VGG网络及其改进



深度学习

本博客所有文章除特别声明外,均采用 CC BY-SA 3.0协议 。转载请注明出处!