1. 首页
  2. 教育
  3. 深度学习

目标检测:Faster RCNN算法详解

本文是继RCNN[1],fastRCNN[2]之后,目标检测界的领军人物RossGirshick团队在2015年的又一力作。简单网络目标检测速度达到17fps,在PASCALVOC上准确率为59.9%;复杂网络达到5fps,准确率78.8%。

本文是继RCNN[1],fastRCNN[2]之后,目标检测界的领军人物RossGirshick团队在2015年的又一力作。简单网络目标检测速度达到17fps,在PASCALVOC上准确率为59.9%;复杂网络达到5fps,准确率78.8%。

作者在github上给出了基于matlabpython的源码。对RegionCNN算法不了解的同学,请先参看这两篇文章:《RCNN算法详解》,《fastRCNN算法详解》。

思想

从RCNN到fastRCNN,再到本文的fasterRCNN,目标检测的四个基本步骤(候选区域生成,特征提取,分类,位置精修)终于被统一到一个深度网络框架之内。所有计算没有重复,完全在GPU中完成,大大提高了运行速度。

目标检测:Faster RCNN算法详解

fasterRCNN可以简单地看做“区域生成网络+fastRCNN“的系统,用区域生成网络代替fastRCNN中的SelectiveSearch方法。本篇论文着重解决了这个系统中的三个问题:

如何设计区域生成网络

如何训练区域生成网络

如何让区域生成网络和fastRCNN网络共享特征提取网络

区域生成网络:结构

基本设想是:在提取好的特征图上,对所有可能的候选框进行判别。由于后续还有位置精修步骤,所以候选框实际比较稀疏。

目标检测:Faster RCNN算法详解

特征提取

原始特征提取(上图灰色方框)包含若干层conv+relu,直接套用ImageNet上常见的分类网络即可。本文试验了两种网络:5层的ZF[3],16层的VGG-16[[^-4]],具体结构不再赘述。

额外添加一个conv+relu层,输出5139256维特征(feature)。

候选区域(anchor)

特征可以看做一个尺度5139的256通道图像,对于该图像的每一个位置,考虑9个可能的候选窗口:三种面积{1282,2562,5122}×{128^2,256^2,512^2}times{1282,2562,5122}×三种比例{1:1,1:2,2:1}{1:1,1:2,2:1}{1:1,1:2,2:1}。这些候选窗口称为anchors。下图示出5139个anchor中心,以及9种anchor示例。

目标检测:Faster RCNN算法详解

在整个fasterRCNN算法中,有三种尺度。

原图尺度:原始输入的大小。不受任何限制,不影响性能。

归一化尺度:输入特征提取网络的大小,在测试时设置,源码中opts.test_scale=600。anchor在这个尺度上设定。这个参数和anchor的相对大小决定了想要检测的目标范围。

网络输入尺度:输入特征检测网络的大小,在训练时设置,源码中为224*224。

窗口分类和位置精修

分类层(cls_score)输出每一个位置上,9个anchor属于前景和背景的概率;窗口回归层(bbox_pred)输出每一个位置上,9个anchor对应窗口应该平移缩放的参数。

对于每一个位置来说,分类层从256维特征中输出属于前景和背景的概率;窗口回归层从256维特征中输出4个平移缩放参数。

就局部来说,这两层是全连接网络;就全局来说,由于网络在所有位置(共51*39个)的参数相同,所以实际用尺寸为1×1的卷积网络实现。

实际代码中,将51399个候选位置根据得分排序,选择最高的一部分,再经过Non-MaximumSuppression获得2000个候选结果。之后才送入分类器和回归器。

所以Faster-RCNN和RCNN,Fast-RCNN一样,属于2-stage的检测算法。

区域生成网络:训练

样本

考察训练集中的每张图像:

a.对每个标定的真值候选区域,与其重叠比例最大的anchor记为前景样本

b.对a)剩余的anchor,如果其与某个标定重叠比例大于0.7,记为前景样本;如果其与任意一个标定的重叠比例都小于0.3,记为背景样本

c.对a),b)剩余的anchor,弃去不用。

d.跨越图像边界的anchor弃去不用

代价函数

同时最小化两种代价:

a.分类误差

b.前景样本的窗口位置偏差

具体参看fastRCNN中的“分类与位置调整”段落。

超参数

原始特征提取网络使用ImageNet的分类样本初始化,其余新增层随机初始化。

每个mini-batch包含从一张图像中提取的256个anchor,前景背景样本1:1.

前60K迭代,学习率0.001,后20K迭代,学习率0.0001。

momentum设置为0.9,weightdecay设置为0.0005。[4]

共享特征

区域生成网络(RPN)和fastRCNN都需要一个原始特征提取网络(下图灰色方框)。这个网络使用ImageNet的分类库得到初始参数W0W_0W0​,但要如何精调参数,使其同时满足两方的需求呢?本文讲解了三种方法。

目标检测:Faster RCNN算法详解

轮流训练

a.从W0W_0W0​开始,训练RPN。用RPN提取训练集上的候选区域

b.从W0W_0W0​开始,用候选区域训练FastRCNN,参数记为W1W_1W1​

c.从W1W_1W1​开始,训练RPN…

具体操作时,仅执行两次迭代,并在训练时冻结了部分层。论文中的实验使用此方法。

如RossGirshick在ICCV15年的讲座TrainingR-CNNsofvariousvelocities中所述,采用此方法没有什么根本原因,主要是因为”实现问题,以及截稿日期“。

近似联合训练

直接在上图结构上训练。在backward计算梯度时,把提取的ROI区域当做固定值看待;在backward更新参数时,来自RPN和来自FastRCNN的增量合并输入原始特征提取层。

此方法和前方法效果类似,但能将训练时间减少20%-25%。公布的python代码中包含此方法。

联合训练

直接在上图结构上训练。但在backward计算梯度时,要考虑ROI区域的变化的影响。推导超出本文范畴,请参看15年NIP论文[5]。

实验

除了开篇提到的基本性能外,还有一些值得注意的结论

与SelectiveSearch方法(黑)相比,当每张图生成的候选区域从2000减少到300时,本文RPN方法(红蓝)的召回率下降不大。说明RPN方法的目的性更明确。

目标检测:Faster RCNN算法详解

使用更大的MicrosoftCOCO库[6]训练,直接在PASCALVOC上测试,准确率提升6%。说明fasterRCNN迁移性良好,没有overfitting。

目标检测:Faster RCNN算法详解

Girshick,Ross,etal.“Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.”ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2014.↩︎

Girshick,Ross.“Fastr-cnn.”ProceedingsoftheIEEEInternationalConferenceonComputerVision.2015.↩︎

M.D.ZeilerandR.Fergus,“Visualizingandunderstandingconvolutionalneuralnetworks,”inEuropeanConferenceonComputerVision(ECCV),2014.↩︎

learningrate-控制增量和梯度之间的关系;momentum-保持前次迭代的增量;weightdecay-每次迭代缩小参数,相当于正则化。↩︎

Jaderbergetal.“SpatialTransformerNetworks”

NIPS2015↩︎

30万+图像,80类检测库。

责任编辑:xj

免责声明:本站旨在传递信息,不代表有传资讯的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:78799268)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/jiaoyu/shenduxuexi/16049.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

联系我们

在线咨询:点击这里给我发消息

邮件:78799268@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code