CN109410234A - 一种基于双目视觉避障的控制方法及控制系统 - Google Patents
一种基于双目视觉避障的控制方法及控制系统 Download PDFInfo
- Publication number
- CN109410234A CN109410234A CN201811188217.4A CN201811188217A CN109410234A CN 109410234 A CN109410234 A CN 109410234A CN 201811188217 A CN201811188217 A CN 201811188217A CN 109410234 A CN109410234 A CN 109410234A
- Authority
- CN
- China
- Prior art keywords
- image
- anaglyph
- obtains
- polar curve
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Abstract
本发明公开一种基于双目视觉避障的控制方法及控制系统,所述控制方法首先获取标定后两摄像头的第一图像和第二图像;其次根据所述第一图像和第二图像进行预处理,获得视差图像;然后对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;最后根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行;本发明采用标定后的双目视觉相机清晰获取环境中物体的第一图像信息和第二图像信息,进而根据第一图像信息和第二图像信息准确的确定控制策略,实现准确控制执行机构。
Description
技术领域
本发明涉及避障控制技术领域,特别是涉及一种基于双目视觉避障的控制方法及控制系统。
背景技术
机器人是集中了传感器技术、信息技术、计算机技术、电子技术、控制技术等的研究成果,是目前最活跃的研究领域之一。虽然近年来,机器人领域的一些先进技术已对机器人发展起到了很大的推动作用,但现目前的移动机器人智能化程度还较低,大部分还是通过手动或半自动进行控制,这也是机器人迟迟难以在很多行业得到普及的重要原因。智能化是目前机器人的一个重要发展方向,其中自主导航是一个非常重要的研究课题,而它主要又涉及到对环境障碍物定位以及避障等问题。因此,对机器人自主导航中的定位与避障进行研究具有重要意义。
传统的机器人避障采用的是超声波传感器、红外传感器、激光传感器和视觉传感器。
超声波传感器的原理是:先发出超声波,然后检测反射波的延迟,根据声速计算目标与物体之间的距离。由于超声波在空气中的速度和湿度,温度有关,在实践中,需要考虑到这些因素的变化。另外,超声波传感器的有效距离,一般小于10m,并且会有最小约几十毫米的检测盲点,它只能用于小型项目。
红外传感器大多基于三角测量原理。发射器以一定的角度向待测物体发射红外光束,被物体反射回来后用另一个接收器检测到,会得到一个偏移值。利用几何关系可以根据发射角度计算得到传感器与物体的距离。常见的红外传感器的测量距离都比较近,小于超声波传感器的距离。另外,对于透明的物体(例如玻璃等)红外线会穿透的材质,红外传感器是无法检测距离的。
激光传感器原理类似前一个方法,只是用激光替代了红外线来测量距离。常用的测距方式是由发射器发出持续时间很短的脉冲激光,由接收器接收返回的信号,根据入射波与反射波的延时,测出与目标的实际距离。由于光速比声速快很多,这种测量方式往往用于大型测量,如航天研究中,而并不适合对精度要求很高的领域。同样,这种方法的成本也十分昂贵,因此也不适用与小型企业或者私人研究。
目前机器视觉是实现移动机器人自主导航的重要研究方向之一。它能够为移动机器人提供丰富的外界信息,就算没有激光、超声波等其他传感器,并且也对所处环境没有预先了解的情况下,机器人也能够对环境信息进行识别处理。与激光和声纳等其他传感器不同,视觉传感器的优点是信息获取量丰富、成本低廉、探测视野广、特征量多且易于提取。利用移动机器人的视觉导航可准确地获得环境中物体的大小、高度、颜色与位置等信息,这往往是声纳、红外等传感器无法达到的,因此如何基于视觉进行避障成为本领域亟需解决的技术问题。
发明内容
本发明的目的是提供一种基于双目视觉避障的控制方法及控制系统,以实现清晰获取环境中物体的信息,进而准确的确定控制策略,实现准确控制执行机构。
为实现上述目的,本发明提供了一种基于双目视觉避障的控制方法,所述控制方法包括:
获取标定后两摄像头的第一图像和第二图像;
根据所述第一图像和第二图像进行预处理,获得视差图像;
对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;
根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;
根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行。
可选的,在所述获取标定后两摄像头的第一图像和第二图像之前,还包括:
采用主动视觉相机标定方法标定左右两摄像头。
可选的,在所述根据所述第一图像和第二图像进行预处理,获得视差图像步骤之前,还包括:
判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
可选的,所述根据所述第一图像和第二图像进行预处理,获得视差图像,具体包括:
对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;
对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像。
可选的,所述采用主动视觉相机标定方法标定左右两摄像头,具体包括:
确定各坐标系关系;
标定摄像机内参数;
标定摄像机外参数。
本发明还提供一种基于双目视觉避障的控制系统,所述控制系统包括:
获取模块,用于获取标定后两摄像头的第一图像和第二图像;
预处理模块,用于根据所述第一图像和第二图像进行预处理,获得视差图像;
提取模块,用于对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;
距离确定模块,用于根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;
避障决策确定模块,用于根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行。
可选的,所述控制系统还包括:
标定模块,用于采用主动视觉相机标定方法标定左右两摄像头。
可选的,所述控制系统还包括:
判断模块,用于判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
可选的,所述预处理模块,具体包括:
极线校正单元,用于对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;
立体匹配单元,用于对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像。
可选的,所述标定模块,具体包括:
各坐标系关系确定单元,用于确定各坐标系关系;
第一标定单元,用于标定摄像机内参数;
第二标定单元,用于标定摄像机外参数。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明首先获取标定后两摄像头的第一图像和第二图像;其次根据所述第一图像和第二图像进行预处理,获得视差图像;然后对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;最后根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行;本发明采用标定后的双目视觉相机清晰获取环境中物体的第一图像信息和第二图像信息,进而根据第一图像信息和第二图像信息准确的确定控制策略,实现准确控制执行机构。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例基于双目视觉避障的控制方法流程图;
图2为本发明实施例坐标系之间的相互转化流程图;
图3为本发明实施例ASW立体匹配流程图;
图4为本发明实施例平行(理想)双目立体视觉系统图;
图5为本发明实施例P点对双目的投影平面;
图6为本发明实施例基于双目视觉避障的控制系统结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于双目视觉避障的控制方法及控制系统,以实现清晰获取环境中物体的信息,进而准确的确定控制策略,实现准确控制执行机构。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例基于双目视觉避障的控制方法流程图,如图1所示,本发明提供一种基于双目视觉避障的控制方法,所述控制方法包括:
步骤S1:获取标定后两摄像头的第一图像和第二图像;
步骤S2:根据所述第一图像和第二图像进行预处理,获得视差图像;
步骤S3:对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;
步骤S4:根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;
步骤S5:根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行。
作为一种实施方式,本发明在所述获取标定后两摄像头的第一图像和第二图像之前,还包括:
步骤S6:采用主动视觉相机标定方法标定左右两摄像头;
作为一种实施方式,本发明在所述根据所述第一图像和第二图像进行预处理,获得视差图像步骤之前,还包括:
步骤S7:判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
下面对各个步骤进行详细论述:
步骤S2:所述根据所述第一图像和第二图像进行预处理,获得视差图像,具体包括:
步骤S21:对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;具体的,本发明采用Bouguet极线校正算法,对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;能有效消除双目之间的图像采集差异。
步骤S22:对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像;具体的,本发明采用ASW立体匹配算法对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像;算法简洁,且硬件要求低,与传统局部算法相比,能很大程度上提高精度。
步骤S3:对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;具体的,本发明采用Canny边缘检测算子,对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;采用Canny算子提取的轮廓比较清晰。
步骤S6:采用主动视觉相机标定方法标定左右两摄像头,具体包括:
步骤S61:确定各坐标系关系,具体为:
图2为本发明实施例坐标系之间的相互转化流程图,如图2所示,标定的过程中首先要了解坐标系之间的转化,即世界坐标系(Ow-XwYwZw)、摄像机坐标系(Oc-XcYcZc)、图像物理坐标系(O1-xy)、和图像像素坐标系(O0-uv)之间的变换关系。
O0-uv坐标系与O1-xy坐标系间的变换关系:
通过O0-uv(由图像像素所定义的像面直角坐标系构成并且任意像素表示为(u,v),其中u,v代表像素在Mat中的行和列)坐标系经过O1原点作为参照点的所有中心区域生成O1-xy,它是以mm表示的。
假设点O1在图像像素坐标系中的坐标为(u0,v0),其被称为基点;以某一像素为例,它在O1-xy坐标系下x轴和y轴的大小分别为dx和dy,则任一像素点在O1-xy坐标系和O0-uv坐标系坐标关系分别为:
和
其对应的齐次坐标表示为:
O1-xy坐标系与Oc-XcYcZc坐标系间的变换关系:
摄像机坐标系下的点P与其图像物理坐标系下对应的点p的关系通过相似三角形的比例变换后可得:
其中f为摄像机焦距。式(4)对应的齐次坐标表示为:
Oc-XcYcZc坐标系与Ow-XwYwZw坐标系间的转换:
在实际地点的坐标系和采集图片的坐标系中的相同像素是由正交阵R和平移量t表示:
其对应的齐次坐标表示为:
其中,R为3*3的正交旋转阵;t为3*1的横向移动向量,t经过Ow源点做参照点的实际地点的坐标系在采集图片的坐标系中的坐标向量;0T=(000)T。
将式(5)代入式(3)可得:
其中fx=f/dx,fy=f/dy分别当作Oc-XcYcZc坐标在x和y方向等效焦距,fx、fy、u0和v0均只与设备内部结构有关,就是设备内参数,其中可记为矩阵A:
再将式(7)代入式(8)可得:
其中0T=(000)T,R3×3和t3×1是通过采集图片的坐标系上的像素点在实际地点的坐标系映射所确定的,即为设备的外参数。
步骤S62:标定摄像机内参数,具体为:
相机的内参数的标定就是为了得到fx,fy,u0和v0。然而首先要知道物体的标定点处在相机的坐标位置(Xc,Yc,Zc)和处在图像像素的坐标位置(u,v),并通过直线线性变换得到式(8)矩阵才可以得到设备内参数fx,fy,u0和v0。
编程实现数据转化做采集设备内参数实时标定,采集设备内参数标定流程可分为以下几部分:
①获取用来标定的一组匹配的源图像数据。用cvImageAcquise()函数来获取双目中所拍摄的某几帧图像,选取其中16幅两两互不平行的图像对并通过编程将这些图像变为8对图像。
②通过找到的40个标定点(棋盘格为标准的8*5),获得点坐标。将步骤①中获得数据信息输入到OpenCV源库中的发现标定点函数中,找到黑白棋盘格点,记为角点。
③通过编程的方式将已获得的标定点进行亚像素级变换。对于步骤②中找到的角点坐标并不是标定环节中最精确的,它必须通过OpenCV源库中的cvfindCornerSubPix()函数进行亚像素级变换才能获得精确的标定值并为获得误差提供有力的依据。
④获得采集设备内参数矩阵。通过对步骤③中获得精确角点进一步处理,将其坐标值输入到OpenCV源库中的获取采集设备的内参数矩阵函数中,该函数用线变法对采集设备进行内参标定,获得采集设备的内参数、畸变矩阵。
步骤S63:标定摄像机外参数,具体为:
设采集设备外参数分别为Rl,tl,Rr和tr,标定点P在两个采集图像设备的坐标系和实际地点空间的坐标系中坐标分别为Pl=(xl,yl,zl)T、Pr=(xr,yr,zr)T、X=(Xw,Xw,Xw)T,则:
转换后,得:
s1Pr-s2RrRl -1Pl=tr-RrRl -1tl (11)
对式(11)化简出一个与s1和s2无关的Pl和Pr关系式,是极线约束。故由标定点在采集设备坐标系坐标Pl和Pr,可得到采集设备外参数的旋转阵R=RrRl-1和平移量t=tr-RrRl-ltl。
之后根据上面求得的摄像机内参矩阵Al和Ar以及PrTAr-TSRAl-lPl=0,可以求得R和t(即为所求摄像机的外部参数)。
其中,R代表右摄像机相对于左摄像机的旋转矩阵(以左摄像机为参考物),t代表他们之间的平移向量。
本发明步骤S21采用Bouguet极线校正算法,对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;具体步骤如下:
1)将右图像平面相对于左图像平面的旋转矩阵分解成两个矩阵Rl和Rr,叫做左右相机的合成旋转矩阵。
2)根据步骤1)获得两个旋转矩阵Rl和Rr让两个摄像头旋转直到两相机的光轴平行。此时虽然光轴与成像面平行,但基线与成像面并不平行。
3)根据步骤2)留下来的基线与成像面不平行的问题,通过构造变换矩阵Rrect使基线与成像面平行。
4)左右摄像头整体刚性矩阵是由步骤2)得到的旋转矩阵与步骤3)得到的变换矩阵进行相乘而得来。如式(12)所示的Rl'和Rr'就是左右摄像头整体刚性矩阵,既能使光轴与成像面平行又能使基线与成像面平行。
5)根据步骤4)得到的左右整体刚性矩阵,左右相机可以完成极线校正。在校正后通过重新选定中心点来对两个图像进行剪裁,使得左右匹配部分最大。边缘形象的说就是图像中物体的轮廓。
本发明步骤S22采用ASW立体匹配算法对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像。具体的,立体匹配是以在极线校正后的左右摄像头采集的图像中找出匹配的对应点并通过计算这些对应点在左右两幅图片中的坐标差值而得到的视差,输出一个视差图为目标的本系统为了提高局部算法的精确度,采用的是ASW立体匹配算法。
具体确定过程如下:
颜色相似度计算公式为
距离邻近度计算公式为:
其中,p为待匹配像素;q为p为中心的匹配窗内一点;Δgpq为p、q两点在几何空间的欧拉距离,γp为匹配窗的半径,Δcpq为p、q两点在CIELab颜色空间的欧拉距离,γc为常数。
Δgpq、Δcpq公式为:
其中,xp为点p的横坐标,xq为点q的横坐标,yp为点p的纵坐标,yq为点q的纵坐标,Lp、Lq分别为点p、点q的明度指数(表示黑白,0为黑色,100为白色,0-100之间为灰色),ap、aq分别为点p、q的色品指数(红绿轴,正值为红色,负值为绿色),bp、bq分别为为点p、q的色品指数(正值为黄色,负值为蓝色)。
所以,以p为中心的匹配窗口中的一点q之间的相关权重ω(p,q)的公式为:
ω(p,q)=fs(Δcpq).fp(Δgpq) (16)
其中,fp(Δgpq)为距离邻近度,fs(Δcpq)为颜色相似度。
之后将式(14)、式(15)代入式(16),得ω(p,q)最终式:
最后一步是求出待匹配图像和参照图像中的匹配窗内聚合代价(差异度)左右像素点对p和pd的匹配代价函数E(p,pd)可以表示为:
其中,Np和Npd分别表示像素点p和Pd对应的窗口范围,q和qd为扫描左右窗口时的对应像素点,e(q,qd)为两q和qd单点间的匹配代价,e(q,qd)可通过下式计算:
T是SAD截断值,Ic为像素点在c通道上的颜色值,r、g、b是c通道的颜色值范围。
在[dmin,dmax]中选择E的最小值对应的视差作为匹配点的视差值,依次求解得到视差图。
其中,dp为最优视差值。
本发明步骤S3采用Canny边缘检测算子,对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓,实现此算法的硬性要求是抑制噪声和精确定位边缘。在实现的步骤上采用的是先滤波平滑再求导。
Canny方法的主要步骤如下:
①用高斯滤波器平滑图象;
令f(x,y)为输入源数据,G(x,y)表示二维高斯函数,即卷积操作数,σ是标准差,fs(x,y)为卷积平滑后的图像。
fs(x,y)=f(x,y)*G(x,y)(22)
②用一阶偏导有限差分计算梯度幅值和方向;
已平滑g(x,y)梯度使用2*2一阶有限差分式计算x与y偏导数的两个阵列fx'(x,y)与fy'(x,y):
其中,Gx(x,y)和Gy(x,y)分别为G(x,y)对x和y的偏导数。
通过式(23)可以得权值和方位角:
其中,M[x,y]是图像像素在边界的权值;θ[x,y]是图像像素在边界的方向。边界的方向是让M[x,y]获得局部最大值,即θ[x,y]。
③对梯度幅值非极大值抑制;
在保留局部梯度最大点,抑制非极大值点后才能确定边缘。采用梯度方向,如果中心点在沿其方向上邻域的梯度幅值最大,就保留;其他情况就抑制。
④用双阈值算法检测和连接边缘;
选取高阈值TH和低阈值TL,比率为2:1或3:1;取出非极大值抑制后的图像中的最大梯度幅值,重新定义高低阈值。即:TH×Max,TL×Max;将小于TL的点抛弃,赋0;将大于TH的点立即标记(这些点就是边缘点),赋1;将大于TL,小于TH的点使用8连通区域确定(即:只有与TH像素连接时才会被接受,成为边缘点,赋1)。
步骤S4根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离。在计算距离前,先介绍视差图的原理。
图4为本发明实施例平行(理想)双目立体视觉系统图;如图4所示,两摄像机平行放置,它们的光轴平行,投影平面平行且共面,且两摄像机的基线沿水平方向,此结构被称为平行双目立体视觉系统。
图5为本发明实施例P点对双目的投影平面;如图5所示,P点在两个投影平面(u1-P1-v1)、(u2-P2-v2)上的投影点P1、P2在Y轴上的分量是一样的。平行双目立体视觉系统在X-Z平面上的投影如图5所示。
其中,f为摄像机焦距;B为基线长;ZD为点P到X轴的距离。假如点P在X轴上的投影为P’,P1、P2在X轴上的投影为M、N,PP’交P1P2与点Q。
由图5得,ΔPQP1和ΔPP'O1以及ΔPQP2和ΔPP'O2相似,由相似三角形定理得:
假设QP2=l,NO2=m,MO1=n,则上式转化为:
简化得:
设上图的点P1坐标为(u1,v1),P2坐标为(u2,v2),由于u1-u2=m+n,再设d=u1-u2,那么式(27)可转化为:
其中,d为视差。
因此,要求距离必须知道视差,由ASW立体匹配算法求得图像的视差。那么,视差成为已知条件。
在理解视差和距离的关系以及得到像素视差之后,开始进行距离计算。
根据式(28)的公式可得视差公式为:Dmin=B*f/Zmax,确定极限距离阈值,最小视差阈值根据上式可得即为Dmin。通过对整合图像上所有的视差值做平均得出完整的视差图像再经过二值化处理,获取二值化图像。之后采用双通道方法对二值图像检测获得连通域的大小和数目。再后提取出阈值并与连通域相比较,大的留,小的扔,有效的保护连通区域消除噪声。最后获得物体是将通过以上叙述的方法所求得的矩阵点乘视察图而来。由于采集的图像中有许多物体,选择离摄像头最近的物体,计算它平均视差,之后再通过式(28)计算出物体的平均深度信息。
步骤S7:判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像,具体包括:
步骤S71:判断所述第一图像和所述第二图像是否在设定的极限距离内;
步骤S72:判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;
对于每一次采集来的图像,不可能将图像中的每个物体进行立体测距,肯定要选取离采集设备最近的物体,那么就需要设置极限距离Zmax,在这个极限距离以外的不做考虑。极限距离的设定如式(28)所示,在步骤(6)中进行解释。
步骤S73:所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
图6为本发明实施例基于双目视觉避障的控制系统结构图,如图6所示,本发明提供一种基于双目视觉避障的控制系统,所述控制系统包括:
获取模块1,用于获取标定后两摄像头的第一图像和第二图像;
预处理模块2,用于根据所述第一图像和第二图像进行预处理,获得视差图像;
提取模块3,用于对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;
距离确定模块4,用于根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;
避障决策确定模块5,用于根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行。
作为一种实施方式,本发明所述控制系统还包括:
标定模块,用于采用主动视觉相机标定方法标定左右两摄像头。
作为一种实施方式,本发明所述控制系统还包括:
判断模块,用于判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
作为一种实施方式,本发明所述预处理模块,具体包括:
极线校正单元,用于对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;
立体匹配单元,用于对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像。
作为一种实施方式,本发明所述标定模块,具体包括:
各坐标系关系确定单元,用于确定各坐标系关系;
第一标定单元,用于标定摄像机内参数;
第二标定单元,用于标定摄像机外参数。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于双目视觉避障的控制方法,其特征在于,所述控制方法包括:
获取标定后两摄像头的第一图像和第二图像;
根据所述第一图像和第二图像进行预处理,获得视差图像;
对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;
根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;
根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行。
2.根据权利要求1所述的的控制方法,其特征在于,在所述获取标定后两摄像头的第一图像和第二图像之前,还包括:
采用主动视觉相机标定方法标定左右两摄像头。
3.根据权利要求1所述的的控制方法,其特征在于,在所述根据所述第一图像和第二图像进行预处理,获得视差图像步骤之前,还包括:
判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
4.根据权利要求1所述的的控制方法,其特征在于,所述根据所述第一图像和第二图像进行预处理,获得视差图像,具体包括:
对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;
对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像。
5.根据权利要求2所述的的控制方法,其特征在于,所述采用主动视觉相机标定方法标定左右两摄像头,具体包括:
确定各坐标系关系;
标定摄像机内参数;
标定摄像机外参数。
6.一种基于双目视觉避障的控制系统,其特征在于,所述控制系统包括:
获取模块,用于获取标定后两摄像头的第一图像和第二图像;
预处理模块,用于根据所述第一图像和第二图像进行预处理,获得视差图像;
提取模块,用于对所述第一图像和所述第二图像分别进行边缘检测,提取物体轮廓;
距离确定模块,用于根据所述视差图像和所述物体轮廓确定物体到两摄像机中点的距离;
避障决策确定模块,用于根据所述距离确定避障决策,以使根据所述避障决策控制执行机构执行。
7.根据权利要求6所述的的控制系统,其特征在于,所述控制系统还包括:
标定模块,用于采用主动视觉相机标定方法标定左右两摄像头。
8.根据权利要求6所述的的控制系统,其特征在于,所述控制系统还包括:
判断模块,用于判断所述第一图像和所述第二图像是否在设定的极限距离内;如果所述第一图像和所述第二图像至少一者不在设定的极限距离内,则重新获取标定后两摄像头的第一图像和第二图像;所述所述第一图像和所述第二图像均在设定的极限距离内,则根据所述第一图像和第二图像进行预处理,获得视差图像。
9.根据权利要求6所述的的控制系统,其特征在于,所述预处理模块,具体包括:
极线校正单元,用于对所述第一图像和所述第二图像分别进行极线校正,分别获得第一极线校正图像和第二极线校正图像;
立体匹配单元,用于对所述第一极线校正图像和所述第二极线校正图像进行立体匹配,获得视差图像。
10.根据权利要求7所述的的控制系统,其特征在于,所述标定模块,具体包括:
各坐标系关系确定单元,用于确定各坐标系关系;
第一标定单元,用于标定摄像机内参数;
第二标定单元,用于标定摄像机外参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811188217.4A CN109410234A (zh) | 2018-10-12 | 2018-10-12 | 一种基于双目视觉避障的控制方法及控制系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811188217.4A CN109410234A (zh) | 2018-10-12 | 2018-10-12 | 一种基于双目视觉避障的控制方法及控制系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109410234A true CN109410234A (zh) | 2019-03-01 |
Family
ID=65467787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811188217.4A Pending CN109410234A (zh) | 2018-10-12 | 2018-10-12 | 一种基于双目视觉避障的控制方法及控制系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109410234A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110499802A (zh) * | 2019-07-17 | 2019-11-26 | 爱克斯维智能科技(苏州)有限公司 | 一种用于挖掘机的图像识别方法和设备 |
CN110956662A (zh) * | 2019-11-29 | 2020-04-03 | 北京邮电大学 | 载体避障方法、装置及电子设备 |
CN111432117A (zh) * | 2020-03-23 | 2020-07-17 | 北京迈格威科技有限公司 | 图像矫正方法、装置和电子系统 |
CN112634362A (zh) * | 2020-12-09 | 2021-04-09 | 电子科技大学 | 一种基于线激光辅助的室内墙面抹灰机器人视觉精确定位方法 |
WO2021093418A1 (zh) * | 2019-11-12 | 2021-05-20 | 深圳创维数字技术有限公司 | 地面障碍物检测方法、设备及计算机可读存储介质 |
CN114037971A (zh) * | 2021-09-22 | 2022-02-11 | 北京控制工程研究所 | 一种基于fpga实现的双目地外星体着陆避障系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106650701A (zh) * | 2017-01-05 | 2017-05-10 | 华南理工大学 | 基于双目视觉的室内阴影环境下障碍物检测方法及装置 |
CN108230392A (zh) * | 2018-01-23 | 2018-06-29 | 北京易智能科技有限公司 | 一种基于imu的视觉障碍物检测虚警剔除方法 |
CN108335350A (zh) * | 2018-02-06 | 2018-07-27 | 聊城大学 | 双目立体视觉的三维重建方法 |
-
2018
- 2018-10-12 CN CN201811188217.4A patent/CN109410234A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484648A (zh) * | 2014-11-27 | 2015-04-01 | 浙江工业大学 | 基于轮廓识别的机器人可变视角障碍物检测方法 |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106650701A (zh) * | 2017-01-05 | 2017-05-10 | 华南理工大学 | 基于双目视觉的室内阴影环境下障碍物检测方法及装置 |
CN108230392A (zh) * | 2018-01-23 | 2018-06-29 | 北京易智能科技有限公司 | 一种基于imu的视觉障碍物检测虚警剔除方法 |
CN108335350A (zh) * | 2018-02-06 | 2018-07-27 | 聊城大学 | 双目立体视觉的三维重建方法 |
Non-Patent Citations (3)
Title |
---|
李瑞峰: "《工业机器人设计与应用》", 31 January 2017, 哈尔滨工业大学出版社 * |
顾骋: "基于双目视觉的立体匹配算法研究与应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
黄攀峰,等: "《空间绳系机器人技术》", 31 August 2014 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110499802A (zh) * | 2019-07-17 | 2019-11-26 | 爱克斯维智能科技(苏州)有限公司 | 一种用于挖掘机的图像识别方法和设备 |
WO2021093418A1 (zh) * | 2019-11-12 | 2021-05-20 | 深圳创维数字技术有限公司 | 地面障碍物检测方法、设备及计算机可读存储介质 |
CN110956662A (zh) * | 2019-11-29 | 2020-04-03 | 北京邮电大学 | 载体避障方法、装置及电子设备 |
CN111432117A (zh) * | 2020-03-23 | 2020-07-17 | 北京迈格威科技有限公司 | 图像矫正方法、装置和电子系统 |
CN112634362A (zh) * | 2020-12-09 | 2021-04-09 | 电子科技大学 | 一种基于线激光辅助的室内墙面抹灰机器人视觉精确定位方法 |
CN114037971A (zh) * | 2021-09-22 | 2022-02-11 | 北京控制工程研究所 | 一种基于fpga实现的双目地外星体着陆避障系统 |
CN114037971B (zh) * | 2021-09-22 | 2023-06-16 | 北京控制工程研究所 | 一种基于fpga实现的双目地外星体着陆避障系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109410234A (zh) | 一种基于双目视觉避障的控制方法及控制系统 | |
CN106960454B (zh) | 景深避障方法、设备及无人飞行器 | |
Pusztai et al. | Accurate calibration of LiDAR-camera systems using ordinary boxes | |
CN108474658B (zh) | 地面形态检测方法及系统、无人机降落方法和无人机 | |
CN102313536B (zh) | 基于机载双目视觉的障碍物感知方法 | |
CN101582165B (zh) | 基于灰度图像与空间深度数据的摄像机阵列标定算法 | |
CN106384382A (zh) | 一种基于双目立体视觉的三维重建系统及其方法 | |
US9826217B2 (en) | System and method for adjusting a baseline of an imaging system with microlens array | |
CN109615652A (zh) | 一种深度信息获取方法及装置 | |
CN110503040B (zh) | 障碍物检测方法及装置 | |
CN106772431A (zh) | 一种结合tof技术和双目视觉的深度信息获取装置及其方法 | |
Debattisti et al. | Automated extrinsic laser and camera inter-calibration using triangular targets | |
JP2018527554A (ja) | 無人航空機の奥行き画像の取得方法、取得装置及び無人航空機 | |
CN107084680B (zh) | 一种基于机器单目视觉的目标深度测量方法 | |
CN105894499A (zh) | 一种基于双目视觉的空间物体三维信息快速检测方法 | |
WO2011005783A2 (en) | Image-based surface tracking | |
CN106570899B (zh) | 一种目标物体检测方法及装置 | |
CN106183995B (zh) | 一种基于立体视觉的可视倒车方法 | |
WO2019144269A1 (zh) | 多目摄像系统、终端设备及机器人 | |
CN103852060A (zh) | 一种基于单目视觉的可见光图像测距方法 | |
CN109059868A (zh) | 一种基于自适应匹配窗口的双目测距方法 | |
KR101714224B1 (ko) | 센서 융합 기반 3차원 영상 복원 장치 및 방법 | |
CN108280401A (zh) | 一种路面检测方法、装置、云端服务器及计算机程序产品 | |
CN113658241A (zh) | 单目结构光的深度恢复方法、电子设备及存储介质 | |
CN107590444A (zh) | 静态障碍物的检测方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190301 |
|
RJ01 | Rejection of invention patent application after publication |