CN108470356B - 一种基于双目视觉的目标对象快速测距方法 - Google Patents

一种基于双目视觉的目标对象快速测距方法 Download PDF

Info

Publication number
CN108470356B
CN108470356B CN201810214972.9A CN201810214972A CN108470356B CN 108470356 B CN108470356 B CN 108470356B CN 201810214972 A CN201810214972 A CN 201810214972A CN 108470356 B CN108470356 B CN 108470356B
Authority
CN
China
Prior art keywords
search
target object
gray
area
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810214972.9A
Other languages
English (en)
Other versions
CN108470356A (zh
Inventor
朱威
叶瑞
伍震业
滕游
郑雅羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201810214972.9A priority Critical patent/CN108470356B/zh
Publication of CN108470356A publication Critical patent/CN108470356A/zh
Application granted granted Critical
Publication of CN108470356B publication Critical patent/CN108470356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Abstract

本发明提出了一种基于双目视觉的目标对象快速测距方法,包括以下步骤:(1)相机标定;(2)采集图像并检测目标对象;(3)计算搜索区域;(4)选择起始搜索位置;(5)提取目标对象中心区域灰度特征;(6)计算匹配度阈值;(7)搜索匹配;(8)计算视差和距离。本发明根据目标对象在一副画面中的位置,在另一幅画面中快速搜索匹配目标对象,减少了计算的复杂度,有效提高了测距速度。

Description

一种基于双目视觉的目标对象快速测距方法
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于双目视觉的目标对象快速测距方法。
背景技术
双目视觉被广泛的应用在机器人、航空、军事、医学和工业等领域。双目视觉能够通过模拟人的视觉原理计算目标对象的实际距离:首先利用相机在不同的角度获取同一目标对象的两幅画面;然后找到两幅画面像素之间的关系进行匹配,并计算匹配像素之间的偏移来获取目标对象的视差值;最后利用得到目标对象的视差值,根据相似三角形的原理计算目标对象与相机之间的实际距离。具体原理参考《学习OpenCV》(Bradski G,Kaebler A著,于仕琪,刘瑞祯译.清华大学出版社,2009)。
目前的像素之间的匹配算法可分为局部匹配和全局匹配。局部匹配方法利用像素的局部信息进行匹配,匹配过程中使用较少的像素信息,计算复杂度较低,匹配速度较快。但该方法在没有显著纹理或有遮挡的情况下匹配效果不佳,经常会出现误匹配。局部匹配方法可分为特征匹配和区域匹配。特征匹配方法是从当前图像中提取特征,用相似性度量和一些约束条件确定几何变换,最后用几何变换得到的结果在另一幅图中进行匹配。区域匹配方法先选取当前图像上某一个像素点邻域内的一个子窗口,再根据某种相似性判断依据,在另外一幅图像上搜索匹配和子窗口最相似的一个区域,而匹配到的区域中对应的像素点就为该像素的匹配点。在区域匹配中,相似性准则的选取和窗口的选取都极大的影响匹配结果。常用的区域匹配相关准则有对应像素差的绝对值(SAD),对应像素差的平方和(SSD),图像的相关性(NCC)等,常用的区域匹配窗口为矩形窗。
全局匹配利用图像的全局约束信息,不关注图像的局部信息,计算的复杂度较高。全局匹配算法通过构建全局能量函数,然后使用优化方法最小化全局能量函数以求得致密视差图。全局匹配方法需要构造一个能量函数,其一般形式为一个数据项加上一个平滑项,其中数据项描述了匹配程度,平滑项体现了定义场景的约束。求解能量最小化的方法有动态规划、置信扩展、图割、模拟退火、扫描线优化、协作算法等,其中动态规划、置信扩展和图割是常用的方法。
相机性能、外部光照和基线长度都会影响双目测距的结果,其中基线长度影响双目测距精度,理论上基线的长度越长测距精度越高。但事实上,基线长度会受限制,最多能达到十几米。相机的性能和外部光照会对像素的匹配造成干扰从而间接使测距的结果产生误差。在实际应用中,匹配算法的准确度和复杂度对双目测距的应用和推广影响较大。
目前公开专利中目标对象测距方法的匹配效率和准确度并不尽如人意。申请号为201511030814.0的专利公开了一种基于双目视觉的测距方法及装置。该发明选定目标物体,从双目视觉第一图像中的提取物体的基准特点并根据基准特征点对第二图像进行全搜索匹配,获取第二图像的匹配特征点。该发明保证了计算精度但是全搜索匹配的计算复杂度高、整体处理速度较慢。
申请专利号为201610058151.1的专利公开了一种自动驾驶系统中双目相机测距方法,该方法在其中一相机采集的图像中确定特征点,且选定包含所述特征点的图像区域作为“搜索模板”,另一相机选取包含所述特征点的图像区域作为“搜索窗口”,用“搜索模板”在“搜索窗口”中进行匹配,获得视差点。该方法提出了以特征点为中心点提取另一图像区域作为“搜索窗口”,但存在对“搜索窗口”的大小选取问题。若窗口选取过小,无法将特征点包含在“搜索窗口”内则会出现误匹配的情况。
发明内容
为了在双目相机采集的视频中快速测量目标对象的距离,本发明提出了一种基于双目视觉的目标对象快速测距方法,所述方法包括以下步骤:
(1)相机标定
对水平放置的双目相机进行标定得到相机的内参矩阵、外参矩阵、畸变系数和两个相机平行时各自的旋转矩阵,利用标定得到的数据消除左右视图的畸变和校正左右视图使之行对齐。
(2)采集图像并检测目标对象
通过双目相机获取两幅图像,使用视觉识别方法识别左图中目标对象以及确定其矩形区域位置,并根据检测结果设置同个时刻目标对象在左图上的两个坐标:一个为目标对象左上角(x1,y1),另一个为目标对象右下角(x2,y2),两个坐标组成的矩形区域即为目标对象区域。将目标对象区域的水平方向长度记为length,竖直方向长度记为width。两幅图像都是以左上角像素作为坐标原点,水平向右为X轴方向,竖直向下为Y轴方向。
(3)计算搜索区域
根据左图目标对象的位置和极线约束条件,以及两个相机在同一水平面上的特点,确定右图同一水平区域即竖直方向范围为[y1,y2]的区域为目标对象成像区域。根据相机成像原理,确定左图中目标对象左边界在右图的水平方向成像范围为[0,x1]和目标对象右边界在右图的水平方向成像范围为[0,x2]。因此得到左图目标对象在右图中的成像区域为以(0,y1)点为左上角坐标、(x2,y2)点为右下角坐标的矩形区域内,即为搜索区域。得到的该搜索区域将用于后续步骤(7)中进行搜索匹配。
(4)选择起始搜索位置
目标对象最有可能出现在搜索区域中的水平方向范围[x1,x2]内。因此起始搜索位置为搜索区域的右边界,搜索方向为从右边界开始向左搜索,到搜索区域左边界结束。
(5)提取目标对象中心区域灰度特征
以左图目标对象几何中心点为中心,选取n×n的图像区域作为搜索模板,n为大于等于3且小于等于length和width的奇数。将搜索模板转为灰度图并利用式(1)提取搜索模板灰度特征集合Φ:
Φ={v|v=p(i)-p(c)} (1)
式中c为搜索模板中心点的位置索引,i为搜索模板内除c外任意一点的位置索引,p(i)为i点的灰度值,p(c)为c点的灰度值,v为p(i)和p(c)的灰度值差。该式将搜索模板中心像素作为参考像素,将搜索模板中每个像素的灰度值与参考像素的灰度值相减,得到的差值集合作为灰度特征集合。
(6)计算匹配度阈值
利用式(2)计算匹配度阈值Thr:
Thr=(n2-1)×diff (2)
式中n为搜索模板的边长,n2-1为搜索模板灰度特征集合Φ中元素个数,diff为特征值距离参数,取值范围为(0,10],它是对最佳匹配窗口匹配程度的一种估计。由于两幅图像是在不同位置采集的,搜索模板与最佳匹配窗口的灰度特征必然存在差异。若搜索过程中出现匹配度小于匹配度阈值,则认为搜索到最佳的匹配并结束搜索。估计差异的大小并设定匹配度阈值,能够减少匹配次数达到加快搜索速度的目的。
(7)搜索匹配
具体子步骤如下:
(7-1)将搜索区域转为灰度图并选取与搜索模板相同大小区域作为搜索窗口,利用式(1)提取搜索窗口的灰度特征。利用式(3)计算搜索窗口与搜索模板对应位置灰度特征距离来衡量D两者之间的匹配度:
Figure BDA0001598338510000051
式中wi为右图搜索窗口灰度特征集合中的第i个灰度特征值,vi为左图搜索模板灰度特征集合中的第i个灰度特征值,n2-1为特征集合中元素的个数。该式将搜索模板与搜索窗口对应的位置的灰度特征相减并取绝对值得到每个位置的灰度特征距离,把所有位置的灰度特征距离相加得到两个窗口的灰度特征距离。在搜索过程中以Dmin记录灰度特征距离的最小值,并设定初始搜索步长step为1。
(7-2)将得到的灰度特征距离D与匹配度阈值Thr进行比较,若D小于等于Thr,则将当前搜索窗口视为最佳匹配窗口并结束搜索。否则,进行下一步。
(7-3)D大于Thr则将D与最小灰度特征距离Dmin进行比较:若D等于Dmin,保存本次搜索窗口中心坐标,调整步长step为1;若D小于Dmin,则用Dmin记录当前D的值,保存本次搜索窗口中心坐标,调整步长step为1;若D大于Dmin,则需用式(4)计算当前灰度特征距离的梯度:
Figure BDA0001598338510000052
式中Dbef表示前一次搜索计算得到的灰度特征距离,Dcur表示本次搜索计算得到的灰度特征距离,step表示本次搜索的步长。若G小于等于0,说明当前灰度特征距离的趋势是减小的,则调整步长step为1。若G大于0,说明当前灰度特征距离的趋势是变大的,则调整步长step为2。将本次搜索窗口中心坐标加上调整后的步长得到下一次搜索窗口中心坐标。
(7-4)重复步骤(7-1)、(7-2)和(7-3)直到出现灰度特征距离小于匹配度阈值或搜索窗口到达搜索区域左边界。若搜索窗口到达搜索区域左边界,就将最小灰度特征距离Dmin对应的搜索窗口视为最佳匹配窗口。若出现Dmin对应多个匹配窗口,则取多个匹配窗口的中心坐标的均值,将均值对应的窗口作为最佳匹配窗口。
(8)计算视差和距离
先将搜索模板中心位置与最佳匹配窗口中心位置的水平坐标相减,得到左图目标对象中心位置的视差值;再按式(5)计算求出目标对象到两个相机中心的距离:
Figure BDA0001598338510000061
式中d表示求得的视差值,B表示两个相机的基线,f为内参矩阵中表示的相机焦距的元素,Z表示目标对象到两个相机中心的距离。
本发明的技术构思为:首先本方法在双目相机的左图中已经检测出目标对象的位置,根据左图目标对象的位置可以通过极线约束条件和相机成像的原理判断右图中目标对象的成像范围,即搜索范围。计算出有效的搜索范围不仅能加快搜索的速度,还使得每次搜索都是有效地操作。考虑到本方法的目的是为了测量目标对象的距离,因此不需要将目标对象的所有像素点进行匹配。本方法选取目标对象的中心区域作为搜索模板并提取搜索模板的灰度特征。在搜索区域中选择相同大小的区域提取灰度特征与搜索模板进行匹配。为了加快搜索速度,会提前预估匹配度的阈值。在匹配过程中若出现匹配度超过该阈值时就将这个窗口作为最佳匹配窗口结果并结束搜索。若整个过程都没有出现超过阈值的窗口,就将匹配过程中匹配度最高的窗口作为最佳匹配窗口。搜索过程中会根据匹配度的变化来预测下一个匹配度的变化趋势,若当前匹配度变化趋势是增大的,会适当的增大搜索步长来跳过匹配度较小区域;若当前匹配度变化趋势是减小的,则通过减小搜索步长来搜索该区域中局部最佳匹配窗口。
与现有技术相比,本发明具有以下有益效果:
本发明提出一种基于双目视觉的目标对象快速测距方法。该方法与现有技术相比,具有如下特点和优点:根据左图目标对象的位置通过极线约束条件和相机成像的原理判断右图中搜索范围,使每次搜索都是意义的操作,从而减少了搜索的次数并提高了搜索的准确率。设置匹配度的阈值,在匹配过程中若出现匹配度超过这个阈值时就将这个窗口作为最佳匹配窗口并结束搜索。通过预测匹配度的变化来调整步长,跳过对匹配度较小窗口的计算,加快了搜索的速度。
附图说明
图1为本发明的流程框图;
图2为本发明中目标对象在左右视图的成像区域示意图,图中虚线为相机的广角,a为相机成像平面,b为目标对象成像区域,c为搜索范围,d为相机的焦点;
图3为本发明中目标对象的搜索区域范围示意图,其中左图A区域为目标对象区,A区域的左上角坐标为(x1,y1)、右下角坐标为(x2,y2),右图B区域为搜索区域,B区域的左上角坐标为(0,y1),右下角坐标为(x2,y2);
图4为本发明的搜索流程图。
具体实施方式
下面就结合附图来具体说明本发明的较佳施例。
如图1所示,本发明是基于双目视觉的目标对象快速测距方法包括以下步骤:
(1)相机标定
(2)采集图像并检测目标对象
(3)计算搜索区域
(4)选择起始搜索位置
(5)提取目标对象中心区域灰度特征
(6)计算匹配度阈值
(7)搜索匹配
(8)计算视差和距离
步骤(1)具体包括:
在本施例中采用张正友棋盘标定法对水平放置的相机进行标定得到相机的内参矩阵、外参矩阵、畸变系数和两个相机平行时各自的旋转矩阵。利用标定得到的数据消除左右视图的畸变和校正左右视图使之行对齐。本施例中使用OpenCV提供的标定和校正算法。
步骤(2)具体包括:
从双目相机获取两幅图像,使用深度学习框架Darknet中的tiny-yolo-voc网络识别目标对象以及确定其矩形区域位置。首先需要搜集大量含有指定对象的图片并对图片中的对象进行标注。再利用标注好的图片训练网络中的参数。最后使用网络对左图画面进行识别定位。根据检测结果设置同个时刻目标对象在左图上的两个坐标:一个为目标对象左上角(x1,y1),另一个为目标对象右下角(x2,y2),两个坐标组成的矩形区域即为目标对象区域。将目标对象区域的水平方向长度记为length,竖直方向长度记为width。
步骤(3)具体包括:
根据左图目标对象的位置和极线约束条件,以及两个相机在同一水平面上的特点,确定右图同一水平区域即竖直方向范围为[y1,y2]的区域为目标对象成像区域。根据相机成像原理,确定左图中目标对象左边界在右图的水平方向成像范围为[0,x1]和目标对象右边界在右图的水平方向成像范围为[0,x2],如图2所示。因此得到左图目标对象在右图中的成像区域为以(0,y1)点为左上角坐标、(x2,y2)点为右下角坐标的矩形区域内,即为搜索区域,如图3所示。
步骤(4)具体包括:
目标对象最有可能出现在搜索区域中的水平方向范围[x1,x2]内。因此起始搜索位置为搜索区域的右边界,搜索方向为从右边界开始向左搜索,到搜索区域左边界结束。
步骤(5)具体包括:
利用矩形中心计算公式计算左图目标对象中心坐标(x0,y0)。以(x0,y0)为中心,根据目标对象的大小选取n×n的区域作为搜索模板。此处若目标对象宽度小于23,则n等于目标对象宽度(目标对象宽度若不是奇数,则将目标对象宽度减1),否则n取23。将搜索模板转为灰度图并利用式(1)提取目标对象中心区域灰度特征集合Φ:
Φ={v|v=p(i)-p(c)} (1)
式中c为搜索模板中心点的位置索引,i为搜索模板内除c外任意一点的位置索引,p(i)为i点的灰度值,p(c)为c点的灰度值,v为p(i)和p(c)的灰度值差。该式将搜索模板中心像素作为参考像素,将搜索模板中每个像素的灰度值与参考像素的灰度值相减,得到的差值集合作为灰度特征集合。
步骤(6)具体包括:
利用式(2)计算匹配度阈值Thr:
Thr=(n2-1)×diff (2)
式中n为搜索模板的边长,n2-1为搜索模板灰度特征集合Φ中元素个数,diff为特征值距离参数,此处diff取5。
步骤(7)具体包括:
(7-1)将搜索区域转为灰度图并选取与搜索模板相同大小区域作为搜索窗口,利用式(1)提取搜索窗口的灰度特征。利用式(3)计算搜索窗口与搜索模板对应位置灰度特征距离来衡量D两者之间的匹配度:
Figure BDA0001598338510000101
式中wi为右图搜索窗口灰度特征集合中的第i个灰度特征值,vi为左图搜索模板灰度特征集合中的第i个灰度特征值,n2-1为特征集合中元素的个数。该式将搜索模板与搜索窗口对应的位置的灰度特征相减并取绝对值得到每个位置的灰度特征距离,把所有位置的灰度特征距离相加得到两个窗口的灰度特征距离。在搜索过程中以Dmin记录灰度特征距离的最小值,并设定初始搜索步长step为1。
(7-2)将得到的灰度特征距离D与匹配度阈值Thr进行比较,若D小于等于Thr,则将当前搜索窗口视为最佳匹配窗口并结束搜索。否则,进行下一步。
(7-3)D大于Thr将D与最小灰度特征距离Dmin进行比较:若D等于Dmin,保存本次搜索窗口中心坐标,调整步长step为1;若D小于Dmin,则用Dmin记录当前D的值,保存本次搜索窗口中心坐标,调整步长step为1;若D大于Dmin,则需用式(4)计算当前灰度特征距离的梯度:
Figure BDA0001598338510000111
式中Dbef表示前一次搜索计算得到的灰度特征距离,Dcur表示本次搜索计算得到的灰度特征距离,step表示本次搜索的步长。若G小于等于0,则调整步长step为1。若G大于0,则调整步长step为2。将本次搜索窗口中心坐标加上调整后的步长得到下一次搜索窗口中心坐标。
(7-4)重复步骤(7-1)、(7-2)和(7-3)直到出现灰度特征距离小于匹配度阈值或搜索窗口到达搜索区域左边界。若搜索窗口到达搜索区域左边界,就将最小灰度特征距离对应的搜索窗口视为最佳匹配窗口。若出现Dmin对应多个匹配窗口,则取多个匹配窗口的中心坐标的均值,将均值对应的窗口作为最佳匹配窗口。搜索流程如图(4)所示。
步骤(8)具体包括:
先将搜索模板中心位置与最佳匹配窗口中心位置的水平坐标相减,得到左图目标对象中心位置的视差值;再按式(5)计算求出目标对象到两个相机中心的距离:
Figure BDA0001598338510000112
式中d表示求得的视差值,B表示两个相机的基线,f为内参矩阵中表示的相机焦距的元素,Z表示目标对象到两个相机中心的距离。

Claims (3)

1.一种基于双目视觉的目标对象快速测距方法,其特征在于,所述的方法包括以下步骤:
(1)相机标定:
对水平放置的双目相机进行标定得到相机的内参矩阵、外参矩阵、畸变系数和两个相机平行时各自的旋转矩阵,利用标定得到的数据消除左右视图的畸变和校正左右视图使之行对齐;
(2)采集图像并检测目标对象:
通过双目相机获取两幅图像,使用视觉识别方法识别左图中目标对象以及确定其矩形区域位置,并根据检测结果设置同个时刻目标对象在左图上的两个坐标:一个为目标对象左上角(x1,y1),另一个为目标对象右下角(x2,y2),两个坐标组成的矩形区域即为目标对象区域,将目标对象区域的水平方向长度记为length,竖直方向长度记为width;
(3)计算搜索区域:
利用步骤(2)得到的目标对象在左图的位置,计算搜索区域;所述步骤(3)中,目标对象在右图成像区域的竖直方向范围为[y1,y2]、水平方向范围为[0,x2];将(0,y1)点为左上角坐标、(x2,y2)点为右下角坐标的矩形区域作为搜索区域;
(4)选择起始搜索位置:
结合步骤(3)计算得到的搜索区域选择起始搜索位置和搜索的方向;所述步骤(4)中,起始搜索位置为搜索区域的右边界,搜索方向为从右边界开始向左搜索,到搜索区域左边界结束;
(5)提取目标对象中心区域灰度特征:
以步骤(2)中目标对象几何中心点为中心,选取n×n的图像区域作为搜索模板并提取搜索模板的灰度特征;所述步骤(5)中,以左图目标对象几何中心点为中心,选取n×n的图像区域作为搜索模板,n为大于等于3且小于等于length和width的奇数;将搜索模板转为灰度图并利用式(2)提取搜索模板灰度特征集合Φ:
Φ={v|v=p(i)-p(c)} (2)
其中,c为搜索模板中心点的位置索引,i为搜索模板内除c外任意一点的位置索引,p(i)为i点的灰度值,p(c)为c点的灰度值,v为p(i)和p(c)的灰度值差;
(6)计算匹配度阈值Thr;
(7)搜索匹配:
从步骤(3)计算的搜索区域中选取搜索窗口与步骤(5)中的搜索模板根据灰度特征进行匹配,直到出现灰度特征距离小于匹配度阈值或搜索窗口到达搜索区域左边界,将搜索区域中匹配度最高的窗口作为最佳匹配窗口;
(8)计算视差和距离:
将搜索模板中心位置与最佳匹配窗口中心位置的水平坐标相减,得到左图目标对象中心位置的视差值;使用式(1)计算求出目标对象到两个相机中心的距离:
Figure FDA0002493931770000021
其中,d表示求得的视差值,B表示两个相机的基线,f为内参矩阵中表示的相机焦距的元素,Z表示目标对象到两个相机中心的距离。
2.如权利要求1所述的一种基于双目视觉的目标对象快速测距方法,其特征在于,所述步骤(6)中,利用式(3)计算匹配度阈值Thr:
Thr=(n2-1)×diff (3)
其中,n为搜索模板的边长,n2-1为搜索模板灰度特征集合Φ中元素的个数,diff为特征值距离参数,取值范围为(0,10]。
3.如权利要求1所述的一种基于双目视觉的目标对象快速测距方法,其特征在于,所述的步骤(7)中包含以下子步骤:
(7-1)将搜索区域转为灰度图并选取与搜索模板相同大小区域作为搜索窗口,利用式(2)提取搜索窗口的灰度特征,利用式(4)计算搜索窗口与搜索模板对应位置灰度特征距离D来衡量两者之间的匹配度:
Figure FDA0002493931770000031
其中,wi为右图搜索窗口灰度特征集合中的第i个灰度特征值,vi为左图搜索模板灰度特征集合中的第i个灰度特征值,n2-1为特征集合中元素的个数,以Dmin记录灰度特征距离的最小值,并设定初始搜索步长step为1;
(7-2)将得到的灰度特征距离D与匹配度阈值Thr进行比较,若D小于等于Thr,则将当前搜索窗口视为最佳匹配窗口并结束搜索,否则,进行下一步;
(7-3)D大于Thr将D与最小灰度特征距离Dmin进行比较:若D等于Dmin,保存本次搜索窗口中心坐标,调整步长step为1;若D小于Dmin,则用Dmin记录当前D的值,保存本次搜索窗口中心坐标,调整步长step为1;若D大于Dmin,则需用式(5)计算当前灰度特征距离的梯度:
Figure FDA0002493931770000041
其中,Dbef表示前一次搜索计算得到的灰度特征距离,Dcur表示本次搜索计算得到的灰度特征距离,step表示本次搜索的步长;若G小于等于0,说明当前灰度特征距离的趋势是减小的,则调整步长step为1;若G大于0,说明当前灰度特征距离的趋势是变大的,则调整步长step为2;将本次搜索窗口中心坐标加上调整后的步长得到下一次搜索窗口中心坐标;
(7-4)重复步骤(7-1)、(7-2)和(7-3)直到出现灰度特征距离小于匹配度阈值或搜索窗口到达搜索区域左边界;若搜索窗口到达搜索区域左边界,就将最小灰度特征距离Dmin对应的搜索窗口视为最佳匹配窗口;若出现Dmin对应多个匹配窗口,则取多个匹配窗口的中心坐标的均值,将均值对应的窗口作为最佳匹配窗口。
CN201810214972.9A 2018-03-15 2018-03-15 一种基于双目视觉的目标对象快速测距方法 Active CN108470356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810214972.9A CN108470356B (zh) 2018-03-15 2018-03-15 一种基于双目视觉的目标对象快速测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810214972.9A CN108470356B (zh) 2018-03-15 2018-03-15 一种基于双目视觉的目标对象快速测距方法

Publications (2)

Publication Number Publication Date
CN108470356A CN108470356A (zh) 2018-08-31
CN108470356B true CN108470356B (zh) 2020-08-11

Family

ID=63264463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810214972.9A Active CN108470356B (zh) 2018-03-15 2018-03-15 一种基于双目视觉的目标对象快速测距方法

Country Status (1)

Country Link
CN (1) CN108470356B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109300154A (zh) * 2018-11-27 2019-02-01 郑州云海信息技术有限公司 一种基于双目立体的测距方法及装置
CN109631829B (zh) * 2018-12-17 2022-05-27 南京理工大学 一种自适应快速匹配的双目测距方法
CN111382591B (zh) * 2018-12-27 2023-09-29 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN109993781B (zh) * 2019-03-28 2021-09-03 北京清微智能科技有限公司 基于双目立体视觉匹配的视差图像生成方法及系统
CN110374045B (zh) * 2019-07-29 2021-09-28 哈尔滨工业大学 一种智能化除冰方法
CN111239684A (zh) * 2020-01-17 2020-06-05 中航华东光电(上海)有限公司 一种基于YoloV3深度学习的双目快速距离测量方法
CN111551920A (zh) * 2020-04-16 2020-08-18 重庆大学 基于目标检测与双目匹配的三维目标实时测量系统和方法
CN111795744A (zh) * 2020-05-25 2020-10-20 无锡海鸿信息技术有限公司 基于双目摄像头测距的红外测温补偿方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110044502A1 (en) * 2009-04-28 2011-02-24 Hisense State Key Laboratory Of Digital Multi-Media Technology Co., Ltd. Motion detection method, apparatus and system
CN104599287A (zh) * 2013-11-01 2015-05-06 株式会社理光 对象跟踪方法和装置、对象识别方法和装置
CN106153041A (zh) * 2015-03-30 2016-11-23 北京自动化控制设备研究所 一种基于多景深信息的视觉里程计测速方法
CN106504288A (zh) * 2016-10-24 2017-03-15 北京进化者机器人科技有限公司 一种基于双目视觉目标检测的家居环境下门定位方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110044502A1 (en) * 2009-04-28 2011-02-24 Hisense State Key Laboratory Of Digital Multi-Media Technology Co., Ltd. Motion detection method, apparatus and system
CN104599287A (zh) * 2013-11-01 2015-05-06 株式会社理光 对象跟踪方法和装置、对象识别方法和装置
CN106153041A (zh) * 2015-03-30 2016-11-23 北京自动化控制设备研究所 一种基于多景深信息的视觉里程计测速方法
CN106504288A (zh) * 2016-10-24 2017-03-15 北京进化者机器人科技有限公司 一种基于双目视觉目标检测的家居环境下门定位方法

Also Published As

Publication number Publication date
CN108470356A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
WO2021196294A1 (zh) 一种跨视频人员定位追踪方法、系统及设备
CN107014294B (zh) 一种基于红外图像的接触网几何参数检测方法及系统
US8385595B2 (en) Motion detection method, apparatus and system
CN107993258B (zh) 一种图像配准方法及装置
US8199202B2 (en) Image processing device, storage medium storing image processing program, and image pickup apparatus
CN108229475B (zh) 车辆跟踪方法、系统、计算机设备及可读存储介质
CN109685078B (zh) 基于自动标注的红外图像识别方法
CN109211198B (zh) 一种基于三目视觉的智能目标检测和测量系统和方法
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN104685513A (zh) 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
CN112132874B (zh) 无标定板异源图像配准方法、装置、电子设备及存储介质
CN111325828A (zh) 一种基于三目相机的三维人脸采集方法及装置
JP7448035B2 (ja) 情報処理装置、3次元位置推定方法、及びプログラム
CN110120012A (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
CN109410272B (zh) 一种变压器螺母识别与定位装置及方法
JPH05215547A (ja) ステレオ画像間対応点決定方法
CN116152068A (zh) 一种可用于太阳能板图像的拼接方法
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
CN113409334B (zh) 一种基于质心的结构光角点检测方法
CN111583341B (zh) 云台像机移位检测方法
CN111630569B (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
US10430971B2 (en) Parallax calculating apparatus
CN111833384A (zh) 一种可见光和红外图像快速配准方法及装置
KR101220003B1 (ko) 시차 맵 생성 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant