深度学习算法原理——RCNN

深度学习算法原理——RCNN1. 概述 RCNN(Region with CNN features)[1]算法发表在2014年CVPR的经典paper:《Rich feature hierarchies for Accurate

1. 概述

RCNN(Region with CNN features)[1]算法发表在2014年CVPR的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmentation》中,这篇文章是目标检测领域的里程碑式的论文,首次提出使用卷积神经网络(Convolutional Neural Networks, CNNs)处理目标检测(Object Detetion)的问题。

2. 算法思想

2.1. RCNN算法流程

RCNN算法的流程图如下所示:

在这里插入图片描述

从图中可以看出,RCNN主要包括三个部分:

  • 区域提名(Region Proposal):使用到了Selective Search[2]的方法,通过Selective Search的方法产生约2000个目标可能出现的位置。在参考[3]中分别给出了C++和Python的实现;
  • 特征计算:特征计算阶段使用CNN算法,文章中使用AlexNet卷积神经网络,首先裁剪出上述2000个目标可能出现的位置的图像,并将其reshape成
    227 × 227 227\times 227
    ,最后通过AlexNet进行特征计算,得到4096维的特征向量;
  • 分类算法:分类阶段是单独训练了SVM的分类器,对每一个类别训练一个二分类的分类器(yes/no)。

针对于候选区域的reshape过程,在参考[4]中做了详细的分析,如下图所示:

在这里插入图片描述

分析了三种的reshape方法,分别为:

  • tightest square with context
  • tightest square without context
  • warp

2.2. 几个重要的概念

2.2.1. IoU

IoU(Intersection-over-Union),即交并比。是目标检测中使用到的一个重要概念,是一种测量在特定数据集中检测相应物体准确度的一个标准。IoU表示的是预测的候选框(candidate bounding box)与原标记框(ground truth bounding box)的交叠率(或者重叠度),也就是它们的交集与并集的比值。相关度越高该值。最理想情况是完全重叠,即比值为1,如下图所示:

在这里插入图片描述

那么,IoU的计算公式为:


I o U = A B A B IoU=\frac{A\cap B}{A\cup B}

2.2.2. 边框回归Bounding Box Regression

在RCNN中,使用边框回归的目的是提高检测位置的准确性。那么,Bounding Box Regression具体如何做呢?在参考[2]中给出了Bounding Box Regression的具体做法:假设数据集中有
N N
个训练数据
{ ( P i , G i ) } i = 1 , , N \left \{ \left ( P^i,G^i \right ) \right \}_{i=1,\cdots ,N}
,其中
P i P^i
表示的是预测的边框,且
P i = ( P x i , P y i , P w i , P h i ) P^i=\left ( P_x^i,P_y^i,P_w^i,P_h^i \right )

x x

y y
表示的是边框中心点的坐标,
w w

h h
表示的是边框的宽高。
G i G^i
表示的是实际的边框,其结构与
P i P^i
一致。我们的目标是寻找到一个映射
f f
,使得
f ( P x i , P y i , P w i , P h i ) = ( G ^ x i , G ^ y i , G ^ w i , G ^ h i ) f\left ( P_x^i,P_y^i,P_w^i,P_h^i \right )=\left ( \hat{G}_x^i,\hat{G}_y^i,\hat{G}_w^i,\hat{G}_h^i \right )
,同时
( G ^ x i , G ^ y i , G ^ w i , G ^ h i ) ( G x i , G y i , G w i , G h i ) \left ( \hat{G}_x^i,\hat{G}_y^i,\hat{G}_w^i,\hat{G}_h^i \right )\approx \left ( G_x^i,G_y^i,G_w^i,G_h^i \right )

在RCNN中,边框回归是利用平移变换和尺度变换实现的。其中,平移变换为:


{ G ^ x = P w d x ( P ) + P x G ^ y = P h d y ( P ) + P y \left\{\begin{matrix} \hat{G}_x=P_wd_x\left ( P \right )+P_x\\ \hat{G}_y=P_hd_y\left ( P \right )+P_y \end{matrix}\right.

尺度变换为:


{ G ^ w = P w e x p ( d w ( P ) ) G ^ h = P h e x p ( d h ( P ) ) \left\{\begin{matrix} \hat{G}_w=P_wexp\left ( d_w\left ( P \right ) \right )\\ \hat{G}_h=P_hexp\left ( d_h\left ( P \right ) \right ) \end{matrix}\right.

其中,
d ( P ) d_{\ast} \left ( P \right )
可以建模成特征(在RCNN中为
p o o l 5 pool_5
,可以表示为
ϕ 5 ( P ) \phi _5\left ( P \right )
)的线性函数,即:
d ( P ) = w T ϕ 5 ( P ) d_{\ast} \left ( P \right )=\mathbf{w}^T_{\ast} \phi _5\left ( P \right )
,我们需要学习到参数
w \mathbf{w}_{\ast}
,可通过对求解如下的最小化问题,得到对应的解:


w = a r g m i n w ^ i N ( t i w ^ T ϕ 5 ( P i ) ) 2 + λ w ^ 2 \mathbf{w}_{\ast}=\underset{\hat{\mathbf{w}}_{\ast}}{argmin}\sum_{i}^{N}\left ( t^i_{\ast}-\hat{\mathbf{w}}^T_{\ast}\phi _5\left ( P^i \right ) \right )^2+\lambda \left \| \hat{\mathbf{w}}_{\ast} \right \|^2

其中,目标
t t_{\ast}
可以由上述的两个变换得到:


t x = ( G x P x ) / P w t y = ( G y P y ) / P h t w = l o g ( G w / P w ) t h = l o g ( G h / P h ) \begin{matrix} t_x=\left ( G_x-P_x \right )/P_w\\ t_y=\left ( G_y-P_y \right )/P_h\\ t_w=log\left ( G_w/P_w \right )\\ t_h=log\left ( G_h/P_h \right ) \end{matrix}

2.2.3. 非极大抑制NMS

非极大抑制NMS(non maximum suppression),从其名称就可以看出,NMS想要做到的是找到局部的极大值,抑制非极大值,主要用于在图像检测中剔除掉检测出来的冗余的bbox。对于目标检测算法,最终我们会得到一系列的bbox以及对应的分类score,NMS所做的工作就是将同一个类别下的bbox按照分类score以及IoU阈值做筛选,剔除掉冗余的bbox,NMS的具体过程为:

  • 在算法得到一系列bbox后,按照类别划分;
  • 对于每一个分类,根据分类score对该类别下所有的bbox做降序排列,最终得到一个排好序的列表list_i;
  • 从列表list_i中取出最大score的bbox_x,并将其与list_i中所有其他的bbox_y计算IoU,若IoU大于某个阈值T,则剔除bbox_y,最终保留bbox_x;
  • 从剩余的list_i中重复上述的选择操作,直到list_i中的bbox都完成筛选;
  • 对其余的类别的列表重复上述两步的操作。

2.3. RCNN模型的训练

在模型训练之前,首先需要的是训练数据集,文章中使用的是VOC数据集,数据集中包含了20个类别的物体。RCNN模型的训练需要分为几个部分单独计算,按照上述流程,分为三个部分:

  • Region Proposal:对于训练集中的所有图像,使用selective search对每张图像提取出约2000个region proposal,将提取出的region proposal保存在本地。
  • AlexNet的特征计算:通常,CNN模型都会使用到预训练模型,同样,这里使用的AlexNet模型也是在ILSVRC 2012上预训练的模型。针对此处的训练数据集,需要对模型Fine-tuning。针对Fine-tuning过程中使用到的数据集,对于一个region proposal,如果其和图像上的所有ground truth中交并比IoU大于等于0.5,则该region proposal作为这个ground truth类别的正样本,否则作为负样本,此外。ground truth也作为正样本。因为VOC一共包含20个类别,另外还包括背景,所以这里region proposal的类别为21类。在此数据集上对CNN模型进行Fine-tuning。
  • 对于每一个类别训练SVM模型:利用CNN模型,对2000个region proposals提取特征,得到
    2000 × 4096 2000\times 4096
    的特征,对于每一个类别训练一个SVM模型。此处的训练样本与特征计算过程中不一致,这里IoU<0.3的是负样本,Ground Truth是正样本。
  • 边界框回归:得到AlexNet的
    p o o l 5 pool_5
    特征和bounding box的ground truth来训练bounding box regression,只对那些跟ground truth的IoU超过某个阈值的proposal进行训练,其余的不参与,从而对proposal的边框修正。

2.4. RCNN模型推理

在推理阶段(测试阶段),对于一张待检测图片,主要分为以下几个部分:

  • 使用Selective Search提取出约2000个region proposals;
  • 将每一个region proposal缩放到AlexNet需要的大小,即
    227 × 227 227\times 227
    ,通过AlexNet对每一个region proposal计算出4096维特征;
  • 对于每一个类,使用对应的SVM分类器计算出对应类别的概率,使用非极大值抑制(为每个类别单独调用),然后去掉一些与高分被选区域IoU大于阈值的候选框;
  • 利用边框回归对最终的边框修正;

3. 模型存在的问题

RCNN的提出对于目标检测领域来说是个里程碑式的进步,但是RCNN算法中存在许多的不足,从上述流程可以发现,可以发现:

  • 过程太多,而且较为分散,同时需要存储中间的计算结果(region proposals以及每一个region proposal的CNN特征);
  • 存在重复的计算,每一个region proposal都需要计算CNN特征;

参考文献

[1] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

[2] Uijlings J R R, Van De Sande K E A, Gevers T, et al. Selective search for object recognition[J]. International journal of computer vision, 2013, 104(2): 154-171.

[3] Selective Search for Object Detection (C++ / Python)

[4] JitendraMalik R G J D T D. Rich feature hierarchies for accurate object detection and semantic segmentation Supplementary material[J].

[5] 【计算机视觉——RCNN目标检测系列】一、选择性搜索详解

[6] 【计算机视觉—RCNN目标检测系列】二、边界框回归(Bounding-Box Regression)

[7] www.rossgirshick.info/

今天的文章深度学习算法原理——RCNN分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/18707.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注