CN109740405A - 一种非对齐相似车辆前窗差异信息检测方法 - Google Patents
一种非对齐相似车辆前窗差异信息检测方法 Download PDFInfo
- Publication number
- CN109740405A CN109740405A CN201810737218.3A CN201810737218A CN109740405A CN 109740405 A CN109740405 A CN 109740405A CN 201810737218 A CN201810737218 A CN 201810737218A CN 109740405 A CN109740405 A CN 109740405A
- Authority
- CN
- China
- Prior art keywords
- vehicle window
- vehicle
- diff area
- module
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种非对齐相似车辆前窗差异信息检测方法,具体由3个模块构成:车窗标记点检测模块、透视变换模块以及差异区域检测模块构成。这三个模块车辆图像对作为输入,输出差异区域的候选框以及对应的置信度。本发明通过提供高精度的车辆档风玻璃标记点模块;采用透视变换解决相机光心以及内部参数变换带来的影响;采用双流网络结构同时包含两张输入图片,通过比较他们的高维特征确定检测差异区域。
Description
技术领域
本发明涉及车辆差异区域检测技术领域,特别是一种非对齐相似车辆前窗差异信息检测方法。
背景技术
随着安防摄像头的不断普及,车辆精准搜索已经成为了公共安全中的一个重要课题。之前的研究人员都通过度量学习的方式将车辆表现为一个全局特征。这种方法虽然能够很好的搜查到外形相似的车辆,但是车窗后面的细节差异信息并不能够很好的被观察人员或者是现有的视觉算法所找到。这些细节的差异信息一方面能够直接作为一个重排序模块,提升初始检索性能的指标。另一方面,它可以通过可视化车辆图片对之间差异区域的方式,帮助视频观察人员快速的挑选出与搜索图像尽可能接近的图像,起到快速查询扩展的作用。
现有技术方案中有一定程度上解决了非对齐相似车辆前窗差异信息检测的问题,但这些方法都基本上将整个问题拆分成图像对齐以及差异性检测两个方面,有很大的局限性。同时在精度,效率及可泛化性上还存在较大的问题。对于这两部分,现有技术方案的处理方法有:
图像对齐:通过传统的图像描述算子或者是依赖深度学习的图像局部特征,他们分别提取各自图像之间的特征点并相互匹配,通过求解对应匹配点之间的单应性矩阵,完成车辆图像对之间的对齐。
差异区域检测:通过车辆图像对之间的直接相减或者是特征相减的方式获得差异特征图。之后在差异特征图的基础上完成对于差异区域的定位。这些方法一般将单一像素作为差异分析的基本单位。
但是现有技术中还存在以下缺点:
1、基于图像特征算子的图像对齐在车窗强反光情况下基本失效;
2、图像对之间的单应性变换解决不了相机光心以及内部参数的变换;
3、传统的物体检测方法无法解决差异区域这类没有特定类别信息的特征。
发明内容
本发明的目的是要解决现有技术中存在的不足,提供一种非对齐相似车辆前窗差异信息检测方法,提供高精度的车辆档风玻璃标记点检测模块;采用透视变换解决相机光心以及内部参数变换带来的影响;采用双流网络结构同时包含两张输入图片,通过比较他们的高维特征确定检测差异区域。
为达到上述目的,本发明是按照以下技术方案实施的:
一种非对齐相似车辆前窗差异信息检测方法,包括以下步骤:
步骤一、通过车窗标记点检测模块采集得到m个车窗候选区域B={Bi|i∈{1,2,...,m}};为此得到损失函数:其中i为候选框的索引信息;pi为候选框属于车窗的概率,ti代表向量化的候选框坐标;和为对应的标注信息,每一个车窗候选框拥有四个顶点V={Vi,j|i∈(1,2,...,m),j∈(1,2,3,4)};在车窗候选区域的基础上,使用通过RoI Pooling得到的特征,预测得到车窗标记点K={Ki,j|i∈(1,2,...,m),j∈(1,2,3,4)},在学习目标的设定时,将4个预测的车窗标记点K,4个车窗候选区域的顶点V以及车窗标记点的标注信息K*;对于车窗标记点的回归,有以下的损失函数:结合损失函数:得到最终的损失函数:
步骤二、通过使用车窗标记点检测模块得到的K′以及对应的目标图像的四个顶点D={(0,0),(0,h),(w,0),(w,h)}经透视变换模块进行变换得到变换矩阵M,对于目标图像上每一个像素点(xt,yt),一个采样核在源图像的对应位置上采样插值得到对应的像素值,目标图像T和源图像图像S像素点之间的转换关系为:ztps=Mpt,其中ps=(xs,ys,1)T和pt=(xt,yt,1)T是目标图像和源图像之间对应的点;
步骤三、采用双流差异区域检测模块构建双流网络结构同时包含两张输入图片,通过比较他们的高维特征确定检测差异区域。
具体地,所述步骤三具体包括:
1)通过车窗关键点检测以及透视变换完成车窗在多视角下的对齐,并使用3x3的卷积模块以及2x2的池化窗口,对于差异区域的检测,设计如下的损失函数:差异/非差异的一个二分类的交叉熵损失、差异区域的回归损失:通过车窗差异性检测网络,获得车窗内差异区域对应的可视化矩形候选框;
2)基于车窗差异区域的车辆搜索重排序算法,对于待检测车辆图像对,得到它的差异区域数量N以及每个差异区域对应的置信度P={pi},对于给定图像q,得初始搜索结果G={gi|i∈{1,2,...,m}}.,由现有度量学习模型获得初始检索结果G={gi},i<m,则得到相似度S(q,gi),得到差异区域数量及置信度Nq和Pq,得到不相似度更新相似度如果i≥m,根据更新后的相似度S(q,gi),对结果进行基于车窗差异区域信息的人为参与查询扩展算法运算;
3)基于车窗差异区域信息的人为参与查询扩展算法具体为:对于任意图像对,可视化其差异区域人为挑选无差异可视化结果图像作为扩展查询样本,完成对车辆差异区域的检测。
与现有技术相比,本发明具有以下有益效果:
1、本发明以深度学习为依旧,通过对大量待检测差异区域的学习,得到高精度的车窗差异区域检测网络。通过提取车窗关键点的方法,完成对于车窗在强反光,多视角变换以及弱纹理信息下的对齐。同时,采用透视变换的方法将非对齐车窗对齐。最后使用双流网络结构,通过比较对齐车窗的高维特征,完成对车船差异区域的检测。
2、对于获得的车窗差异结果,我们设计了基于车窗差异信息的重排序算法以及人为参与的查询扩展算法,极大的提升的车辆搜索的准确性。
3、本发明将图像差异性检测的两个阶段,图像预处理以及差异性检测两个阶段用三个模块设计到一个网络中,并能够通过端到端的方式完成训练。同时,在双流网络结构中,它们相互分享权重,在减小模型大小的同时,使得模型学到更加鲁棒的特征,避免在差异区域检测结果陷入过拟合状态。
附图说明
图1为本发明的车窗标记点检测模块提取的车窗候选区域。
图2为本发明的透视变换模块的透视变换流程图。
图3为本发明的基于车窗差异区域的车辆搜索重排序算法流程图。
图4为本发明的基于车窗差异区域的车辆人为参与查询扩展算法流程图。
具体实施方式
下面结合具体实施例对本发明作进一步描述,在此发明的示意性实施例以及说明用来解释本发明,但并不作为对本发明的限定。
本实施例的一种非对齐相似车辆前窗差异信息检测方法,具体由3个模块实现:车窗标记点检测模块、透视变换模块以及差异区域检测模块构成。这三个模块车辆图像对作为输入,输出差异区域的候选框以及对应的置信度。
车窗标记点模块:
因为车船标记点在空间上与车窗候选区域非常接近,首先我们通过现有的两阶监测网络模型完成得到m个车窗候选区域B={Bi|i∈{1,2,...,m}};在该检测过程中,我们分别设计对应的候选框回归损失函数以及候选框分类损失函数。为此我们得到损失函数:
其中i为候选框的索引信息;pi为候选框属于车窗的概率,ti代表向量化的候选框坐标;和为对应的标注信息。
因为每一个车窗候选框拥有四个顶点V={Vi,j|i∈(1,2,...,m),j∈(1,2,3,4)},因此我们期望通过车窗候选框进一步精确定位出车窗的4个特征点。首先,我们使用通过RoI Pooling,得到车窗候选框所对应的车窗高维特征。在对应特征的基础上,我们通过设计两个全连接网络,预测得到车窗标记点K={Hi,j|i∈(1,2,...,m),j∈(1,2,3,4)}。在学习目标的设定上,我们将4个待预测的车窗标记点K,4个车窗候选区域的顶点V以及车窗标记点的标注信息K*分为一一对应的四组。这是因为我们发现左上角车窗标记点Vi,j,与车窗候选框的左上角点Ki,j更为接近。其具体设计方式如图.1所示。对于车窗标记点的回归,我们有以下的损失函数:
结合公式(1)以及(2),我们可以得到我们最终的损失函数:
透视变换模块:
因为车辆挡风玻璃可以近似的看成一个矩形,所以我们希望将车窗区域变换为矩阵的方式来实现对齐功能。为了解决不同摄像机之间光心以及相机参数的变换,我们使用特殊的单应性变换透视变换。我们通过使用上一个模块得到的K′以及对应的目标图像的四个顶点D={(0,0),(0,h),(w,0),(w,h)}得到变换矩阵M。对于目标图像上每一个像素点(xt,yt),一个采样核在源图像的对应位置上采样插值得到对应的像素值。目标图像T和原始图像s像素点之间的转换关系为:
ztps=Mpt
其中ps=(xs,ys,1)T和pt=(xt,yt,1)T是目标图像和原始图像之间对应的点。整个插值过程如图2所示:
我们可以从理论上证明,上述的透视变换流程不仅可以将梯度传递到源图像上的采样点,同样可以传递到车窗标记点。因此,车窗标记点可以同时被人工标注信息和接下来部分的梯度信息所监督。从而提升最终的性能。
双流差异区域检测模块:
为了更好检测出对齐图像对之间的差异区域,最直观的方式就是将对齐图像直接相减得到差异图,从而完成检测。不仅如此,我们也可以将对齐的图像对分别送入卷积模块中,提取他们的高维特征,通过他们高维特征图之间的差异完成差异区域的检测。我们选择经过最大值池化的特征作为图像对高维特征的表示,因为它不仅能够减小特征的分辨率,减小计算大小,同时也能够保证一定的集合不变性。具体而言,在我们设计的双流网络中,我们使用3x3的卷积模块以及2x2的池化窗口。
对于差异区域的检测,我们设计如下的损失函数:1.差异/非差异的一个二分类的交叉熵损失;2.差异区域的回归损失。
通过车窗差异性检测网络,我们可以获得车窗内差异区域对应的可视化标注框,为了更好地使用这些信息,我们分别设计了基于车窗差异区域信息的车辆重排序算法以及人为参与的查询扩展算法:
基于车窗差异区域信息的车辆检索重排序算法:
对于待检测车辆图像对,我们可以获得它的差异区域数量N以及每个差异区域对应的置信度P={pi},因此我们设计了如下的算法流程图3来表示完成的车辆检索重排序法。其中对于给定图像q,我们可以得初始搜索结果G={gi|i∈{1,2,...,m}}.。
基于车窗差异区域信息的人为参与查询扩展算法:
同样的,对于待检测车辆图像对,我们可以获得它的差异区域数量N以及每个差异区域对应的置信度P={pi}以及初始搜索结果G={gi|i∈{1,2,...,m}}.;如图4所示,对于任意图像对,可视化其差异区域人为挑选无差异可视化结果图像作为扩展查询样本,完成对车辆差异区域的检测。
本发明的技术方案不限于上述具体实施例的限制,凡是根据本发明的技术方案做出的技术变形,均落入本发明的保护范围之内。
Claims (2)
1.一种非对齐相似车辆前窗差异信息检测方法,其特征在于,包括以下步骤:
步骤一、通过车窗标记点检测模块采集得到m个车窗候选区域B={Bi|i∈{1,2,…,m}};为此得到损失函数: 其中i为候选框的索引信息;pi为候选框属于车窗的概率,ti代表向量化的候选框坐标;和为对应的标注信息,每一个车窗候选框拥有四个顶点V={Vi,j|i∈(1,2,…,m),j∈(1,2,3,4)};在车窗候选区域的基础上,使用通过RoI Pooling得到的特征,预测得到车窗标记点K={Ki,j|i∈(1,2,…,m),j∈(1,2,3,4)},在学习目标的设定上,将4个预测的车窗标记点K,4个车窗候选区域的顶点V以及车窗标记点的标注信息K*分为对应的4组;对于车窗标记点的回归,有以下的损失函数:结合损失函数: 得到最终的损失函数:
步骤二、通过使用车窗标记点检测模块得到的K′以及对应的目标图像的四个顶点D={(0,0),(0,h),(w,0),(w,h)}经透视变换模块进行变换得到变换矩阵M,对于目标图像上每一个像素点(xt,yt),一个采样核在源图像的对应位置上采样插值得到对应的像素值,目标图像T和原始图像S像素点之间的转换关系为:ztps=Mpt,其中ps=(xs,ys,1)T和pt=(xt,yt,1)T是目标图像和源图像之间对应的点;
步骤三、采用双流差异区域检测模块构建双流网络结构同时包含两张输入图片,通过比较他们的高维特征确定检测差异区域。
2.根据权利要求1所述的非对齐相似车辆前窗差异信息检测方法,其特征在于,所述步骤三具体包括:
1)通过车窗关键点检测以及透视变换完成车窗在多视角下的对齐,并使用3x3的卷积模块以及2x2的池化窗口,对于差异区域的检测,设计如下的损失函数:差异/非差异的一个二分类的交叉熵损失、差异区域的回归损失:通过车窗差异性检测网络,获得车窗内差异区域对应的可视化标注框;
2)基于车窗差异区域的车辆搜索重排序算法,对于待检测车辆图像对,得到它的差异区域数量N以及每个差异区域对应的置信度P={pi},对于给定图像q,得初始搜索结果G={gi|i∈{1,2,…,m}},由现有度量学习模型获得初始检索结果G={gi},i<m,则得到相似度S(q,gi),得到差异区域数量及置信度Nq和Pq,得到不相似度,更新相似度如果i≥m,根据更新后的相似度S(q,gi),对结果进行基于车窗差异区域信息的人为参与查询扩展算法运算;
3)基于车窗差异区域信息的人为参与查询扩展算法具体为:对于任意图像对,可视化其差异区域人为挑选无差异可视化结果图像作为扩展查询样本,完成对车辆差异区域的检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810737218.3A CN109740405B (zh) | 2018-07-06 | 2018-07-06 | 一种非对齐相似车辆前窗差异信息检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810737218.3A CN109740405B (zh) | 2018-07-06 | 2018-07-06 | 一种非对齐相似车辆前窗差异信息检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109740405A true CN109740405A (zh) | 2019-05-10 |
CN109740405B CN109740405B (zh) | 2021-08-27 |
Family
ID=66354259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810737218.3A Active CN109740405B (zh) | 2018-07-06 | 2018-07-06 | 一种非对齐相似车辆前窗差异信息检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109740405B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062384A (zh) * | 2019-11-08 | 2020-04-24 | 博云视觉(北京)科技有限公司 | 一种基于深度学习的车窗精确定位方法 |
CN113157961A (zh) * | 2021-03-11 | 2021-07-23 | 深圳大学 | 一种联合无类别区域建议框生成和图像目标快速检索方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881645A (zh) * | 2015-05-26 | 2015-09-02 | 南京通用电器有限公司 | 基于特征点互信息量和光流法的车辆前方目标的检测方法 |
US20170351905A1 (en) * | 2016-06-06 | 2017-12-07 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
-
2018
- 2018-07-06 CN CN201810737218.3A patent/CN109740405B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881645A (zh) * | 2015-05-26 | 2015-09-02 | 南京通用电器有限公司 | 基于特征点互信息量和光流法的车辆前方目标的检测方法 |
US20170351905A1 (en) * | 2016-06-06 | 2017-12-07 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062384A (zh) * | 2019-11-08 | 2020-04-24 | 博云视觉(北京)科技有限公司 | 一种基于深度学习的车窗精确定位方法 |
CN111062384B (zh) * | 2019-11-08 | 2023-09-08 | 博云视觉(北京)科技有限公司 | 一种基于深度学习的车窗精确定位方法 |
CN113157961A (zh) * | 2021-03-11 | 2021-07-23 | 深圳大学 | 一种联合无类别区域建议框生成和图像目标快速检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109740405B (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107204010B (zh) | 一种单目图像深度估计方法与系统 | |
CN107832672B (zh) | 一种利用姿态信息设计多损失函数的行人重识别方法 | |
CN107392964B (zh) | 基于室内特征点和结构线结合的室内slam方法 | |
CN106296693B (zh) | 基于3d点云fpfh特征实时三维空间定位方法 | |
CN110443898A (zh) | 一种基于深度学习的ar智能终端目标识别系统及方法 | |
CN110378931A (zh) | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 | |
CN113221625B (zh) | 一种利用深度学习的局部特征对齐行人重识别方法 | |
CN108805906A (zh) | 一种基于深度图的运动障碍物检测及定位方法 | |
CN106373088B (zh) | 大倾斜低重叠率航空图像的快速拼接方法 | |
CN109934862A (zh) | 一种点线特征结合的双目视觉slam方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
CN110288659A (zh) | 一种基于双目视觉的深度成像及信息获取方法 | |
CN111797684B (zh) | 一种运动车辆双目视觉测距方法 | |
CN104517095A (zh) | 一种基于深度图像的人头分割方法 | |
CN109308715A (zh) | 一种基于点特征和线特征结合的光学图像配准方法 | |
CN106530407A (zh) | 一种用于虚拟现实的三维全景拼接方法、装置和系统 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN111914615A (zh) | 基于立体视觉的消防区域可通过性分析系统 | |
CN113643345A (zh) | 一种基于双光融合的多目道路智能识别方法 | |
CN109740405A (zh) | 一种非对齐相似车辆前窗差异信息检测方法 | |
CN111325828A (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
Zhao et al. | Intelligent matching method for heterogeneous remote sensing images based on style transfer | |
CN114639115A (zh) | 一种人体关键点与激光雷达融合的3d行人检测方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN111401113A (zh) | 一种基于人体姿态估计的行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |