CN107392965B - 一种基于深度学习和双目立体视觉相结合的测距方法 - Google Patents

一种基于深度学习和双目立体视觉相结合的测距方法 Download PDF

Info

Publication number
CN107392965B
CN107392965B CN201710604350.2A CN201710604350A CN107392965B CN 107392965 B CN107392965 B CN 107392965B CN 201710604350 A CN201710604350 A CN 201710604350A CN 107392965 B CN107392965 B CN 107392965B
Authority
CN
China
Prior art keywords
gray
values
value
disparity map
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710604350.2A
Other languages
English (en)
Other versions
CN107392965A (zh
Inventor
王华锋
李飞
成也
付明霞
冯瑾
潘海侠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201710604350.2A priority Critical patent/CN107392965B/zh
Publication of CN107392965A publication Critical patent/CN107392965A/zh
Application granted granted Critical
Publication of CN107392965B publication Critical patent/CN107392965B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提出了一种基于深度学习和双目立体视觉相结合的测距方法,利用深度学习框选出目标对象在场景图像中的坐标位置,将该坐标位置对应到由三维重建形成的视差图中,进而可以框选出该目标物在视差图中的坐标范围。最后,利用一种统计方法——众数,来对视差图中框选出的区域按列求取一个出现次数最多的灰度值。由于视差图是一个二维数组,因此可以求得所有等于该灰度值的点的坐标位置。由于这些点的灰度值都是相同的,因此,选取这些点中任意一个点的坐标位置,输入给双目立体视觉模块生成的深度图,即可求得目标物与该双目立体视觉系统之间的距离。本发明与现有的测距方法相比,还具有能够对现实场景下具体目标物进行基于识别的非接触测量的优点。

Description

一种基于深度学习和双目立体视觉相结合的测距方法
技术领域
本发明提供了一种基于深度学习和双目立体视觉相结合的测距方法,涉及深度学习、计算机视觉技术领域。
背景技术
拥有非接触测量特点的测距方式有超声波测距、红外测距、激光测距和计算机双目视觉测距。
超声波测距的原理是利用超声波在空气中的传播速度为已知,测量声波在发射后遇到障碍物反射回来的时间,根据发射和接收的时间差计算出发射点到障碍物的实际距离。由于超声波测距仪是声波发射,具有声波的扇形发射特性,方向性差。当声波经过之处障碍物较多时,反射回来的声波较多,干扰较多,易报错。
激光测距,是利用激光对目标的距离进行准确测定的仪器。激光测距仪在工作时向目标射出一束很细的激光,由光电元件接收目标反射的激光束,计时器测定激光束从发射到接收的时间,计算出从观测者到目标的距离。但是,测量容易受到烟雾、灰尘、雨滴的干扰且目的性不强。
红外测距是由红外发射器按照一定的角度发射红外光束,当遇到物体后,光束会反射回来。反射回来的红外光束被CCD检测器检测到以后,会得到一个偏移值,利用三角关系,在知道发射角度、偏移值、中心距以及滤镜的焦距后,传感器到物体的距离就可以通过几何关系计算出来。但是,测量容易受到日光或者其他相近波长光源的干扰,也会受到烟雾、灰尘的干扰且方向性差。
双目立体视觉是计算机视觉的一个重要分支,双目立体视觉测距技术是双目立体视觉的一个重要应用。测距技术分为主动式和被动式测距两种。双目立体视觉测距技术是根据视差原理建立的被动测距系统,该系统是人类利用双目感知距离的原理设计的,即两眼从稍有不同的两个角度去观察三维世界的同一场景时,由于几何光学的投影,观察者观察到的点在左右两眼视网膜上成的像不在同一位置上,存在一定的偏差,这个偏差就是双眼视差,客观物体的实际距离就是通过视差来体现的。两个摄像机从不同位置对同一物体拍摄得到的两幅图像,通过匹配算法找出两幅图像中的对应点,并进过计算得出视差,然后基于三角测量原理恢复出物体在真实世界中的距离信息。双目立体视觉测距在测量的过程中仅需要通过捕获图像就能得到物体到相机的距离信息,而不用发射信号,具有良好的隐蔽性,因此在各个领域发挥着越来越大的作用。但是,单纯的基于双目立体视觉的测距功能单一,没有充分挖掘计算机视觉的潜能。
本发明把双目立体视觉与时下流行的机器学习技术相结合,提出了一种基于深度学习和双目立体视觉相结合的测距方法。该方法除了具有一般的双目立体视觉测距的功能外,通过与基于机器学习的物体识别相结合,达到对具体物体测距的能力,并且可以完成对识别的多个物体测距的要求。
发明内容
本发明解决的技术问题是:针对现有的非接触测量方法在现实场景测量的成本高及语义性不足的问题,提供一种物体识别和双目立体视觉相结合的测距方法,具有能够对现实场景下具体目标物进行基于识别的非接触测量的优点。
本发明采用的技术方案为:一种基于深度学习和双目视觉相结合的测距方法,包括以下五个步骤:
步骤(1)、首先应用标定后的双目相机模块捕获现实场景下的图像。
步骤(2)、将步骤(1)中左目相机捕获的图像输入到基于深度学习的物体识别模块,框选出该场景下能够识别到的目标物体,并且给出识别到的物体的具体名称。如果该帧图像不包含可以识别到的物体,则仅进行三维重建,然后返回到步骤(1)。
步骤(3)、将左右目相机捕获的图像输入到双目立体视觉模块,进行三维重建,生成视差图,再将步骤(2)中得到的物体所在区域的坐标输入给该双目视觉模块,该模块对在视差图中框选出的每个区域利用统计方法——众数,对该框选出来的区域的灰度值进行按列统计。
步骤(4)、对步骤(3)的灰度值统计结果进行去重处理。然后对去重后的结果进行从小到大的排序。如果排序后的灰度值个数大于2个,则删除第一个和最后一个灰度值,即去掉灰度最大值和灰度最小值,从剩下的灰度值中选取一个作为该框选区域灰度值的代表;如果灰度值个数小于等于2个,则仅取最后一个灰度值作为该区域的灰度值的代表。
步骤(5)、由于双目视觉模块生成的视差图为二维数组,因此,可以求得步骤(4)中输出的各个区域的灰度代表值对应的坐标位置。双目视觉模块从各个区域的灰度代表值对应的坐标位置中各任选一个坐标作为每个区域灰度值众数的代表,利用灰度值在深度图中的坐标位置,即可求得框选出的每个区域包含的物体的距离。
进一步地,步骤(1)中所述的图像来自于经过标定后的双目相机捕获的图像。
进一步地,步骤(2)中基于深度学习的物体识别的模块的输入图像来自于双目相机,它与输入到双目视觉模块中的左目相机捕获的图像一样。利用步骤(1)中捕获的图像输入到双目视觉模块进行三维重建,将其左目相机捕获的图像输入到深度学习模块进行物体识别。如果包含由可以识别到的物体,则输出物体的坐标位置和名称,否则仅输出视差图,然后返回到步骤(1)。
进一步地,步骤(3)中利用一种统计方法——众数,将步骤(2)中框选出来的区域对应到视差图的区域,对该区域的灰度值进行按列统计,得到该区域各个列中灰度值出现次数最多的灰度值。
进一步地,步骤(4)针对步骤(3)统计得到的灰度值,首先进行灰度值去重处理;然后按照从小到大的顺序进行统计;接着针对统计后得到的灰度的值的不同个数分别处理:如果灰度值的个数大于2个,那么就去掉第一个和最后一个灰度值,即去掉最小值和最大值,从剩下的灰度值中选取一个作为该区域的灰度值代表;如果去重后灰度值的个数小于或等于2个,那么就选取最后一个灰度值作为该区域的灰度值代表;最终得到一个该区域灰度值的代表值。
进一步地,步骤(5)再把双目视觉模块中得到的各个区域的灰度值的代表值坐标对应到深度图中相同坐标的位置处,得到一个深度信息,该深度值即为该区域的灰度代表值所表示的深度。将该信息与物体识别模块得到的具体物体名称相对应,即可得到每一个可以识别到的目标物体在该场景下与双目相机之间的距离值。
以往的双目视觉测距主要聚焦在如何对于相应的不确定目标进行距离估计,由于没有考虑到被测目标本身的属性或类别,因而在距离估计上存在很大的随机性和误差。而本发明旨在解决如何在测量过程中将被测目标本身的类别或属性信息加入到距离的评估过程,从而使距离的判定方面增加相应的先验知识,降低测量误差。
至此,最终得到被测场景中目标及其距离观测点多远的语义理解。对象名称和距离信息的组合拥有着比单一的距离或对象名称更为丰富的含义。该信息在不远的将来应用到服务机器人中,有助于真实场景下服务机器人的场景理解,提升服务质量和智能化水平。机器人将不再是各种传感的简单组合,而是各种传感器信息的有效融合,发挥出1+1大于2的效果。同时,本发明将带来更广阔的应用语义,即在利用视觉能够判定目标属性的同时,又可以知晓目标距离观测点的距离,为自主导航、场景标注等等应用提供有力支撑。
本发明的原理在于:
本发明提出了一种深度学习与双目视觉相结合的距离测量方法,克服了现有的非接触测量方法在现实场景下成本高,语义性不强的缺点。本方法适用于室内和室外场景下利用深度学习方法可以识别到的物体的距离的测量。本方法包含四个步骤:首先利用标定后的双目相机捕获现实场景中的图像;然后把左目相机捕获的图像输入到基于深度学习的物体识别模块,由该模块给出图像中包含的对象名称和该对象在该图像中所属区域的坐标位置,该区域的范围由左上角和右下角的两个二维坐标点确定;接着把左右目相机的图像输入给双目视觉模块进行三维重建,结合上一步得到的物体区域坐标,在双目视觉模块生成的视差图中同样地绘制出该坐标对应的区域,并利用基于众数的统计方法对视差图中框选出来的区域的灰度值进行统计,得到出现次数最多的灰度值,并把该灰度值作为该框选出来的区域的灰度值的代表;最后分别求出各个区域中利用众数方法得到的灰度值在每一个区域中的坐标位置,因为深度图中的深度信息与灰度值是对应的。在整个视差图中,只要灰度值一样,无论该灰度值对应的点在何处,那么它所代表的深度信息都是一样的。因此,在各个框选出来的区域中只要获得由众数求得的灰度值对应的一个坐标位置就可以得到由该众数求出的灰度值对应的深度信息。把该步骤得到的深度信息与第2步中识别到的物体名称相结合,即可准确求得当前场景下由双目相机所捕获的区域内被识别到的物体和该物体到双目相机的具体距离了。
本发明的内容主要包括以下方面:
图像的获取。双目视觉模块的输入图像来自于标定后的双目相机捕获的图像,在物体识别模块中使用的图像来自于该双目相机的左目相机捕获的图像。
物体所在区域的预测。该模块使用的是独创的基于深度学习的物体识别方法——TSSD,该方法相较于其他方法具有预测精度高、速度快等优点。关于这一点,如图2所示,基于开源YOLO的物体检测方法,它的核心思想是利用整张图作为神经网络的输入,直接在输出层回归bounding box(包含区域的最小矩形)的位置和bounding box所属的类别。实现方法是先把输入图像划分为S*S个网格,如果某一个object的中心落在了这个网格中,则该网格就负责预测这个object。其缺点为对相互靠的很近的物体,以及很小的物体检测效果不是很好。本发明提出的TSSD网络如图3所示,因为每一层feature map(特征图)的感受视野不同,TSSD在多个feature map上进行处理,针对不同大小的feature map,允许检测出不同尺度下的物体。低层的feature map感受视野比较小,高层的感受视野比较大,在不同的feature map上进行卷积,可以达到多尺度的目的。
深度图像中特定区域灰度值的提取。利用基于深度学习的TSSD物体识别方法对来自左目相机的输入图像进行物体识别操作,并输出结果。该结果包含对象名称和对象在该图像中的区域,该区域的范围由左上角坐标和右下角坐标确定。将该区域对应到双目视觉模块生成的视差图中,利用众数统计方法来对该框选出来的区域的灰度值进行统计,求得该区域内出现次数最多的灰度值,并且用该灰度值代表该区域的灰度值。
得到图像中具体物体到双目相机的距离的实现。在双目视觉模块得到各个区域内的灰度值的众数后,获得该灰度值所对应的各个点的位置,从各个区域中的众数求得的灰度值对应的多个点中任意选取一个坐标点。将该坐标点作为深度图的输入,即可输出该坐标点的深度信息。
本发明与现有技术相比的优点在于:
本发明提出了用于测距的物体识别与双目视觉相结合的方法。该方法能够解决现有的非接触测量方法对物体距离测量目的性不强的不足之处。在实际场景中,结合物体识别模块识别出物体的名称和物体的坐标位置,与双目视觉模块相结合可以得到该图像中物体的名称和该物体到双目相机的距离。
附图说明
图1为本发明的物体识别和双目视觉相结合的测距方法的流程图;
图2为YOLO的网络结构示意图;
图3为TSSD的网络结构示意图;
图4为本发明中对框选区域按列求取灰度值的处理流程图。
具体实施方式
下面结合附图说明对本发明做更详细地描述。
如图1所示,本发明的一种基于物体识别和双目立体视觉相结合的测距方法,其组成包括:经过标定后的双目相机、基于深度学习的物体识别模块、三维重建及测距模块、灰度值去重处理模块,其特征在于基于深度学习的物体识别模块的输入图像来自于经过标定后的双目相机的左目捕获的图像,该图像与三维重建部分使用的左目图像一样;三维重建模块的输入来自于标定后的双目相机捕获的两张图像,三维重建模块利用输入的两张图像生成视差图和点云图。
1、图像采集模块
该模块的作用是为物体识别模块和三维重建模块提供图像输入。输入图像是经过标定后的双目相机捕获的图像。由于三维重建过程中需要知道使用的双目相机的内外参数,因此需要对使用的双目相机进行标定操作。
2、物体识别模块
考虑到识别的速度和精度,使用目前性能较好的TSSD算法,网络结构如图3所示。基于该算法的物体识别模块的作用如下:
(1)根据输入图像,输出识别到的各个物体的名称。识别模块能够识别到的具体物体与训练阶段使用的训练集有关,如果训练集没有包含输入图像中出现的物体,那么识别模块将不能识别出图像中出现的该物体。输出的物体名称来自于对训练集中的图像进行标注时使用的物体名称。
(2)输出对应于每一个识别到的物体在输入图像上的坐标位置。输出的坐标位置由两个二维坐标表示。坐标位置确定了输入图像中的一块矩形区域,该矩形区域内包含了识别模块识别到的物体。
YOLO网络模型如图2所示,使用64个7*7大小的卷积核在整幅图像上卷积,接着经过一系列3*3或者1*1的卷积(conv)层来提取特征,然后用两个全连接(fc)层做分类和回归,最后生成一个7*7*30的矩阵。核心思想是利用整张图作为网络的输入,输入图像先被缩放到448*448大小,接着图像再被分为S*S个网格,如果某个物体的中心落在了某个网格,则这个网格就负责预测这个物体所属的类别,每个网格输出B个矩形框,包含框的位置信息(xcenter,ycenter,w,h)和物体的confidence,然后每个网格再输出C个类别的条件概率P(Class|Object),最后的输出层有S*S*(B*5+C)个单元,其中(xcenter,ycenter)表示预测框的中心坐标,(w,h)分别表示矩形框的宽度和高度;confidence的定义如下:
Figure GDA0002497571110000061
上式中,Pr(Classi)表示网格预测的类别概率,Pr(Classi|Object)表示条件类别概率;如果网格包含有物体,Pr(Object)等于1,否则等于0;
Figure GDA0002497571110000062
表示预测的物体的框选区域和真实的物体所在区域的交集与预测的物体的框选区域和真实的物体所在区域的并集的比例,用于度量定位物体的精度。举例说明一下,假设现有矩形区域A和矩形区域B,那么A和B之间的IOU表示如下:
IOU=A∩B/A∪B
由于每个网格仅预测一个物体,对于相互靠的很近的物体,容易造成漏检;对于物体的尺寸比较敏感,对于变化较大的物体泛化能力较差。
YOLO的整个网络的后端存在两个全连接层,每一个输出都会观察到整幅图像,并不是很合理。
与YOLO不同的是TSSD采用VGG16的网络结构,使用前面的5层,去掉了YOLO中的两个全连接层,增加了4个卷积层。每个添加的特征层(feature layer),使用一系列的卷积核(3*3,1*1),去产生一系列固定大小的predictions。在不同层级的feature map上进行识别,这样可以覆盖更多的范围,不同层次的feature map分别用于default box的偏移以及不同类别得分的预测,最后通过NMS(Non Maximum Suppression)得到最终的检测结果,如图3所示。假设在m层feature map上进行识别,则第k层的基本比例为:
Figure GDA0002497571110000063
在上式中,m表示使用的feature map的个数,s表示每一个feature map上默认box的比例,smin为0.2,表示最低层的比例为0.2,smax为0.9,表示最高层比例为0.9。
这些增加的卷积层的feature map的大小变化比较大,允许检测出不同尺度下的物体,并且不同的feature map可以预测不同宽高比的图像。在低层的feature map,感受野比较小,高层的感受野比较大,在不同的feature map上进行卷积,可以达到多尺度的目的。
3、灰度值去重处理
将物体识别模块输出的坐标位置对应到三维重建模块输出的视差图上,这样可以在视差图上得到一个矩形区域。如图4所示,单独对在视差图上框选出来的矩形区域的灰度值进行按列统计,求取每一列的灰度值众数。视差图上的每一个被框选区域包含很多列,对视差图上框选出来的区域求取众数后,首先进行灰度值去重处理,经过这一步操作后,保证每一个区域求取的灰度值众数没有重复值,方便接下来的排序过程;接着对去重后的灰度值进行从小到大的排序操作;然后针对排序后得到的灰度值个数分别处理:
(1)如果排序后灰度值的个数大于2个,那么去掉排序后的第一个和最后一个灰度值,即去掉排序后得到的灰度最大值和最小值,从剩下的灰度值中选取一个作为该区域的灰度值的代表值;
(2)如果排序后得到的灰度值个数小于或等于2个,那么选取最后一个灰度值作为该区域的灰度代表值;
4、三维重建及测距模块
标定过的双目相机捕获的图像作为该模块的输入。该模块应用OpenCV开源计算机视觉库来对输入图像进行三维重建,由cv2.reprojectImageTo3D函数生成三维点云图像。将物体识别模块输出的物体所在区域坐标位置应用到视差图,框选出该坐标位置对应的区域,应用众数对该区域的灰度值进行统计,求得按列统计的出现次数最多的灰度值,对该区域按列求取的灰度值进行去重处理,最后值得到一个灰度值,作为该区域的灰度值代表。由于该视差图为二维数组,因此,可以求得该数组中所有灰度值等于灰度值去重操作后得到的区域灰度代表值对应的坐标点,在这些坐标点中任意选择一个坐标点作为点云图像的输入,即可得到该灰度值对应的深度信息。由于各个区域的灰度代表值是对在物体识别阶段输出的各个区域分别求取的,因此,可以得到多个灰度值,进而可得到多个距离信息,它们代表各个区域中的物体到相机的距离。
至此,得到了识别出的对象距离相机的距离,由于识别阶段的输出是识别出的每一个物体对应于一块区域,区域的灰度值众数也正好对应于一块区域,在视差图中不同的灰度值代表着不同的距离信息,灰度值越大,表示的距离越近,灰度值越小,则表示的距离越远。识别出的物体名称与位置很容易对应起来,又可以求得每一个区域内的众数所表示的距离,那么也可以得到物体名称与灰度值、物体名称与距离的联系。在得到了物体名称和阈值对应的距离信息后,由双目立体视觉模块输出图像中包含的物体名称和该物体距离双目相机的距离。
本发明未详细阐述的技术内容属于本领域技术人员的公知技术。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (5)

1.一种基于深度学习和双目立体视觉相结合的测距方法,其特征在于包括以下步骤:
步骤(1):首先由标定后的双目相机模块捕获现实场景下的图像;
步骤(2):将步骤(1)中目标相机模块中的左目相机捕获的图像输入到基于深度学习的物体识别模块,框选出在输入图像中能够识别到的物体,并且给出识别到的物体的具体名称和所在区域,如果输入图像不包含可以识别到的物体,则仅进行三维重建,然后返回到步骤(1);
步骤(3):将双目相机捕获的图像输入到双目立体视觉的三维重建模块进行三维重建,生成视差图,再将步骤(2)中得到的所述物体所在区域的坐标输入给双目视觉模块,将物体识别模块输出的物体所在区域坐标位置应用到视差图,框选出该坐标位置对应的区域,双目视觉模块对在视差图中框选出的区域利用统计方法—众数,对该框选出来的所述区域的灰度值进行按列统计,得到灰度值统计结果;
步骤(4):对步骤(3)的灰度值统计结果进行去重处理,然后对去重后的结果进行从小到大的排序,如果排序后的灰度值个数大于2个,则删除第一个和最后一个灰度值,即去掉灰度最大值和灰度最小值,从剩下的灰度值中选取一个作为框选区域灰度值的代表;如果灰度值个数小于等于2个,则仅取最后一个灰度值作为区域的灰度值的代表;
步骤(5):双目视觉模块生成的视差图为二维数组,求得步骤(4)中输出的区域的灰度代表值对应的坐标位置,双目视觉模块从各个区域的灰度代表值对应的坐标位置中任选一个坐标作为区域灰度值众数的代表,利用灰度值在深度图中的坐标位置,即求得框选出的区域包含的物体的距离。
2.根据权利要求1所述的方法,其特征在于:步骤(2)利用步骤(1)中左目相机捕获的图像输入到基于深度学习的物体识别模块进行物体识别,输入图像来自于双目相机模块的左目相机捕获的图像,如果输入图像包含有可以识别到的物体,则输出各个物体在输入图像中的坐标位置及其名称,如果输入图像中没有识别模块可以识别到的物体,则在进行三维重建后,然后返回到步骤(1)。
3.根据权利要求1所述的方法,其特征在于:步骤(3)利用一种统计方法——众数,对步骤(2)识别出来的坐标位置对应到视差图中的区域进行灰度值的按列统计,得到视差图中被框选区域每一列的灰度值众数。
4.根据权利要求1所述的方法,其特征在于:步骤(4)对步骤(3)得到的灰度值进行以下操作:
(1)去除步骤(3)统计后得到的灰度值中的重复值;
(2)对去重后的灰度值,进行从小到大的排序;
针对排序后得到的灰度值不同个数,再进行分别处理:
(1)如果排序后灰度值的个数大于2个,那么去掉排序后的第一个和最后一个灰度值,即去掉排序后得到的灰度最大值和最小值,从剩下的灰度值中选取一个作为该区域的灰度值的代表值;
(2)如果排序后得到的灰度值个数小于或等于2个,那么选取最后一个灰度值作为该区域的灰度代表值;
这样,对视差图中框选区域统计后得到的灰度值,总能找到一个区域的灰度代表值,保证了后续步骤能够有持续的输入值,增强系统的稳健性。
5.根据权利要求1所述的方法,其特征在于:步骤(5)中,根据步骤(4)输出的灰度代表值,在视差图中得到区域灰度代表值所在的坐标位置,在视差图中有很多个坐标的灰度值都等于灰度代表值,由于视差图中的灰度值与距离是一一对应的,即只要灰度值一样,无论这个坐标点位于视差图中的何处,它代表的距离是不会因为坐标位置的不同而改变的,从灰度代表值在视差图中对应的多个坐标中,任选一个坐标,在深度图中得到该坐标位置处的深度信息,该深度信息即为物体识别模块所框选出来的物体与双目相机之间的距离。
CN201710604350.2A 2017-07-24 2017-07-24 一种基于深度学习和双目立体视觉相结合的测距方法 Active CN107392965B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710604350.2A CN107392965B (zh) 2017-07-24 2017-07-24 一种基于深度学习和双目立体视觉相结合的测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710604350.2A CN107392965B (zh) 2017-07-24 2017-07-24 一种基于深度学习和双目立体视觉相结合的测距方法

Publications (2)

Publication Number Publication Date
CN107392965A CN107392965A (zh) 2017-11-24
CN107392965B true CN107392965B (zh) 2020-10-30

Family

ID=60336275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710604350.2A Active CN107392965B (zh) 2017-07-24 2017-07-24 一种基于深度学习和双目立体视觉相结合的测距方法

Country Status (1)

Country Link
CN (1) CN107392965B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108120803B (zh) * 2017-12-20 2020-08-07 珠海高凌信息科技股份有限公司 一种空气负氧离子浓度在线监测方法及其装置
CN108596009A (zh) * 2017-12-29 2018-09-28 西安智加科技有限公司 一种用于农机自动驾驶的障碍物检测方法和系统
CN109029363A (zh) * 2018-06-04 2018-12-18 泉州装备制造研究所 一种基于深度学习的目标测距方法
CN109146929B (zh) * 2018-07-05 2021-12-31 中山大学 一种基于事件触发相机与三维激光雷达融合系统下的物体识别与配准方法
CN109300154A (zh) * 2018-11-27 2019-02-01 郑州云海信息技术有限公司 一种基于双目立体的测距方法及装置
CN109859216B (zh) * 2019-02-16 2021-06-25 深圳市未来感知科技有限公司 基于深度学习的测距方法、装置、设备及存储介质
CN110084133B (zh) * 2019-04-03 2022-02-01 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、车辆、计算机设备和存储介质
CN110070039A (zh) * 2019-04-23 2019-07-30 长讯通信服务有限公司 基于深度学习的机房机柜及主控板感知与坐标测量方法及装置
CN110473246B (zh) * 2019-07-24 2023-10-13 哈尔滨工程大学 一种基于双目视觉的多重遮挡目标的测距方法
CN110702015B (zh) * 2019-09-26 2021-09-03 中国南方电网有限责任公司超高压输电公司曲靖局 输电线路覆冰厚度测量方法及装置
CN113177565B (zh) * 2021-03-15 2023-03-24 北京理工大学 一种基于深度学习的双目视觉位置测量系统及方法
CN113313201A (zh) * 2021-06-21 2021-08-27 南京挥戈智能科技有限公司 基于Swin Transformer和ZED摄像头的多目标检测和测距方法
CN113379751A (zh) * 2021-06-23 2021-09-10 苏州紫金港智能制造装备有限公司 基于二维目标检测的最适合抓取工件点云识别分割方法、装置及系统
CN113587895B (zh) * 2021-07-30 2023-06-30 杭州三坛医疗科技有限公司 双目测距方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102069770A (zh) * 2010-12-16 2011-05-25 福州名品电子科技有限公司 基于双目立体视觉的汽车主动安全控制系统及其控制方法
CN103337094A (zh) * 2013-06-14 2013-10-02 西安工业大学 一种应用双目摄像机实现运动三维重建的方法
CN106389078A (zh) * 2016-11-24 2017-02-15 贵州大学 一种智能导盲眼镜系统及其导盲方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
KR20100003913A (ko) * 2008-07-02 2010-01-12 삼성전자주식회사 3차원 영상 디스플레이를 이용한 커뮤니케이션 방법 및장치
CN102081793A (zh) * 2011-01-06 2011-06-01 西北工业大学 星空背景图像帧转移型CCD传感器Smear效应亮线消除方法
CN102075779B (zh) * 2011-02-21 2013-05-08 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102069770A (zh) * 2010-12-16 2011-05-25 福州名品电子科技有限公司 基于双目立体视觉的汽车主动安全控制系统及其控制方法
CN103337094A (zh) * 2013-06-14 2013-10-02 西安工业大学 一种应用双目摄像机实现运动三维重建的方法
CN106389078A (zh) * 2016-11-24 2017-02-15 贵州大学 一种智能导盲眼镜系统及其导盲方法

Also Published As

Publication number Publication date
CN107392965A (zh) 2017-11-24

Similar Documents

Publication Publication Date Title
CN107392965B (zh) 一种基于深度学习和双目立体视觉相结合的测距方法
CN107862293B (zh) 基于对抗生成网络的雷达生成彩色语义图像系统及方法
Levinson et al. Traffic light mapping, localization, and state detection for autonomous vehicles
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN114022830A (zh) 一种目标确定方法以及目标确定装置
Kaczmarek Stereo vision with Equal Baseline Multiple Camera Set (EBMCS) for obtaining depth maps of plants
CN110197106A (zh) 物件标示系统及方法
US20130028482A1 (en) Method and System for Thinning a Point Cloud
CN111209840B (zh) 一种基于多传感器数据融合的3d目标检测方法
CN113160327A (zh) 一种点云补全的实现方法和系统
CN113936198A (zh) 低线束激光雷达与相机融合方法、存储介质及装置
EP3703008A1 (en) Object detection and 3d box fitting
Shi et al. An improved lightweight deep neural network with knowledge distillation for local feature extraction and visual localization using images and LiDAR point clouds
CN116222577A (zh) 闭环检测方法、训练方法、系统、电子设备及存储介质
CN115731545A (zh) 一种基于融合感知的电缆隧道巡检方法及装置
CN113160210A (zh) 基于深度相机的排水管道缺陷检测方法及装置
CN113255779A (zh) 多源感知数据融合识别方法、系统及计算机可读存储介质
CN117250956A (zh) 一种多观测源融合的移动机器人避障方法和避障装置
CN111353481A (zh) 基于激光点云与视频图像的道路障碍物识别方法
CN116310368A (zh) 一种激光雷达3d目标检测方法
US20240153120A1 (en) Method to determine the depth from images by self-adaptive learning of a neural network and system thereof
Zhang et al. Smartrainnet: Uncertainty estimation for laser measurement in rain
KR20230036651A (ko) 라이다 데이터의 다중 좌표계 특징을 사용한 객체 검출 시스템 및 방법
CN113792645A (zh) 一种融合图像和激光雷达的ai眼球
CN113112547A (zh) 机器人及其重定位方法、定位装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant