CN105277169A - 基于图像分割的双目测距方法 - Google Patents

基于图像分割的双目测距方法 Download PDF

Info

Publication number
CN105277169A
CN105277169A CN201510618179.1A CN201510618179A CN105277169A CN 105277169 A CN105277169 A CN 105277169A CN 201510618179 A CN201510618179 A CN 201510618179A CN 105277169 A CN105277169 A CN 105277169A
Authority
CN
China
Prior art keywords
region
image
side edge
edge point
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510618179.1A
Other languages
English (en)
Other versions
CN105277169B (zh
Inventor
薛振武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ambarella Inc
Original Assignee
Ambarella Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ambarella Inc filed Critical Ambarella Inc
Priority to CN201510618179.1A priority Critical patent/CN105277169B/zh
Publication of CN105277169A publication Critical patent/CN105277169A/zh
Application granted granted Critical
Publication of CN105277169B publication Critical patent/CN105277169B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders

Abstract

一种基于图像分割的双目测距方法,首先根据物体将左图像和右图像分割成各个区域,再根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离对左图像和右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域,最后根据匹配区域的边缘点的水平距离计算视差。本发明分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。

Description

基于图像分割的双目测距方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于图像分割的双目测距方法。
背景技术
目前流行的距离测量方法有超声波测距﹑雷达测距﹑激光测距和摄像机测距等。其中超声波测距﹑雷达测距和激光测距属于主动式测距,需要主动发射超声波﹑毫米波﹑微波或者激光等,具有成本高昂﹑测量精度高的特点,而摄像机测距属于被动式测距,只需要光学成像系统,具有成本低廉﹑准确度高的特点。摄像机测距分为单目测距和双目测距,其中双目测距的准确度更高,应用也更为广泛,是目前计算机视觉领域的一个重要研究方向。
双目测距主要有两个步骤:1、立体标定和立体校正:该步骤的目的是消除摄像机的畸变并使得左右图像的对极线在同一水平线上以及达到行对准,立体标定和立体校正步骤通常只需要在双目摄像机安装完毕后执行一次,然后把立体校正的参数保存下来供后续步骤使用;2、立体匹配:该步骤的目的是要找到与左图中任意一点匹配的右图上的点,进而计算出相应的视差,最终得到距离,立体匹配步骤在每一次采集图像后都要重新进行。
双目测距的难点和重点是立体匹配,它对于测量距离的准确性有着至关重要的影响,目前主流的立体匹配方法有:块匹配法(BlockMatching)、半全局块匹配法(Semi-GlobalBlockMatching)、归一化互相关和匹配法(SumofNormalizedCrossCorrelation)、置信度传播匹配法(BeliefPropagation)等,这些方法都是以固定大小的块作为匹配的基本单元,当图像中存在大面积的低纹理区域时,这些方法无法得到准确有效的视差信息,因此计算得到的视差图十分稀疏。
发明内容
本发明提供一种基于图像分割的双目测距方法,根据物体将图像分割成各个区域,这样分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。
为了达到上述目的,本发明提供一种基于图像分割的双目测距方法,包含以下步骤:
图像分割:根据物体将左图像和右图像分割成各个区域,每个区域与某类物体对应,将分割得到的物体区域作为匹配的基本单元;
区域匹配:根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离对左图像和右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域;
视差计算:根据匹配区域的边缘点的水平距离计算视差。
在双目摄像机安装完毕之后,进行第一次双目测距之前,需要对双目摄像机进行立体标定和立体校正,保存立体标定和立体校正得到的参数。
双目摄像机中的左摄像机和右摄像机分别采集图像后,根据立体校正得到的参数对左摄像机采集的左图像和右摄像机采集的右图像进行重映射,得到重映射左图像和重映射右图像,重映射左图像作为左图像进行图像分割,重映射右图像作为右图像进行图像分割。
假设R1i是重映射左图像中的任意一个区域,R2j是重映射右图像中的任意一个区域,则区域R1i与区域R2j匹配必须要同时满足下列所有条件:
1、|Y(R1i)-Y(R2j)|≤Yth,其中,Y(R)是区域R的亮度,Yth是亮度差的阈值;
2、W(R1i)/W(R2j)≤Wth,且W(R2j)/W(R1i)≤Wth,其中,W(R)是区域R的宽度,Wth是宽度比的阈值;
3、H(R1i)/H(R2j)≤Hth,且H(R2j)/H(R1i)≤Hth,其中,H(R)是区域R的高度,Hth是高度比的阈值;
4、N(R1i)/N(R2j)≤Nth,且N(R2j)/N(R1i)≤Nth,其中,N(R)是属于区域R的像素个数,Nth是像素数比的阈值;
5、LEFT(R1i)-LEFT(R2j)≥Dmin,且LEFT(R1i)-LEFT(R2j)≤Dmax,其中,LEFT(R)是区域R的最左边,Dmin是允许的最小视差,Dmax是允许的最大视差;
6、RIGHT(R1i)-RIGHT(R2j)≥Dmin,且RIGHT(R1i)-RIGHT(R2j)≤Dmax,其中,RIGHT(R)是区域R的最右边,Dmin是允许的最小视差,Dmax是允许的最大视差;
7、|LOW(R1i)-LOW(R2j)|≤Vth,其中,LOW(R)是区域R的最下边,Vth是允许的最大垂直偏移;
8、|HIGH(R1i)-HIGH(R2j)|≤Vth,其中,HIGH(R)是区域R的最上边,Vth是允许的最大垂直偏移。
假设像素Pij属于区域R,即Pij∈R,则第i行的左侧边缘点满足:且Pij∈R,右侧边缘点满足:Pij∈R且
如果重映射左图像第i行的第m个左侧边缘点记为LLim,重映射左图像第i行的第m个右侧边缘点记为LRim,重映射右图像第i行第n个的左侧边缘点记为RLin,重映射右图像第i行的第n个右侧边缘点记为RRin,所有可能的视差集合记为C,那么所述的视差计算过程包含以下步骤:
步骤S4.1、找到重映射左图像中匹配区域的所有行的左侧边缘点LLi和右侧边缘点LRi,以及重映射右图像中匹配区域的所有行的左侧边缘点RLi和右侧边缘点RRi
步骤S4.2、令C=Φ,其中Φ是空集合;
步骤S4.3、针对匹配的每一行i,计算视差集合C:
如果LLim-RLin≥Dmin且LLim-RLin≤Dmax,则C=C+{LLim-RLin};
如果LRim-RRin≥Dmin且LRim-RRin≤Dmax,则C=C+{LRim-RRin};
步骤S4.4、计算该匹配区域的视差d=Median(C),其中,Median是取中值运算。
所述的基于图像分割的双目测距方法还包含以下步骤:
在得到视差计算结果之后,根据视差计算距离,计算的公式为:Z=f·T/d,其中,Z是物体的距离,f是摄像机的焦距,是立体校正得到的参数,单位是像素,T是立体标定使用的棋盘格的边长,单位是厘米,d是视差,单位是像素。
本发明根据物体将图像分割成各个区域,这样分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。
附图说明
图1是本发明的流程图。
图2是待分割的图像;
图3是图像分割示意图。
图4是区域匹配示意图。
图5是视差计算示意图。
图6是视差图。
具体实施方式
以下根据图1~图6,具体说明本发明的较佳实施例。
如图1所示,本发明提供一种基于图像分割的双目测距方法,包含以下步骤:
步骤S0、对双目摄像机进行立体标定和立体校正;
所述的立体标定和立体校正通常只在双目摄像机安装完毕后执行一次,立体标定和立体校正是线下进行的,立体标定和立体校正得到的参数被保存下来供后续使用;
立体标定与立体校正的目的是消除双目摄像机的畸变,使得三维世界里的每一点在双目摄像机中的左右摄像机的图像里处于同一水平线上,也就是垂直视差为0;
OpenCV与Matlab均有成熟的立体标定与立体校正算法,可以很容易的得到双目摄像机的校正参数;
步骤S1、图像采集和图像重映射;
双目摄像机中的左摄像机和右摄像机分别采集图像后,根据立体校正得到的参数对左摄像机采集的左图像和右摄像机采集的右图像进行重映射,得到重映射左图像和重映射右图像;
步骤S2、图像分割;
根据物体将重映射左图像和重映射右图像分割成各个区域,每个区域与某类物体对应,将分割得到的物体区域作为匹配的基本单元;
利用现有的图像分割算法分割重映射左图像和重映射右图像;
步骤S3、区域匹配;
根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离等信息对重映射左图像和重映射右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域;
假设R1i是重映射左图像中的任意一个区域,R2j是重映射右图像中的任意一个区域,则区域R1i与区域R2j匹配必须要同时满足下列所有条件:
1、|Y(R1i)-Y(R2j)|≤Yth,其中,Y(R)是区域R的亮度,Yth是亮度差的阈值;
2、W(R1i)/W(R2j)≤Wth,且W(R2j)/W(R1i)≤Wth,其中,W(R)是区域R的宽度,Wth是宽度比的阈值;
3、H(R1i)/H(R2j)≤Hth,且H(R2j)/H(R1i)≤Hth,其中,H(R)是区域R的高度,Hth是高度比的阈值;
4、N(R1i)/N(R2j)≤Nth,且N(R2j)/N(R1i)≤Nth,其中,N(R)是属于区域R的像素个数,Nth是像素数比的阈值;
5、LEFT(R1i)-LEFT(R2j)≥Dmin,且LEFT(R1i)-LEFT(R2j)≤Dmax,其中,LEFT(R)是区域R的最左边,Dmin是允许的最小视差,Dmax是允许的最大视差;
6、RIGHT(R1i)-RIGHT(R2j)≥Dmin,且RIGHT(R1i)-RIGHT(R2j)≤Dmax,其中,RIGHT(R)是区域R的最右边,Dmin是允许的最小视差,Dmax是允许的最大视差;
7、|LOW(R1i)-LOW(R2j)|≤Vth,其中,LOW(R)是区域R的最下边,Vth是允许的最大垂直偏移;
8、|HIGH(R1i)-HIGH(R2j)|≤Vth,其中,HIGH(R)是区域R的最上边,Vth是允许的最大垂直偏移;
其中,各阈值的默认值是Yth=32,Wth=1.2,Hth=1.2,Nth=1.3,Vth=8,实际应用中可以根据具体情况进行调节;
步骤S4、视差计算;
根据匹配区域的边缘点的水平距离计算视差;
假设像素Pij属于区域R,即Pij∈R,则第i行的左侧边缘点满足:且Pij∈R,右侧边缘点满足:Pij∈R且
如果重映射左图像第i行的第m个左侧边缘点记为LLim,重映射左图像第i行的第m个右侧边缘点记为LRim,重映射右图像第i行第n个的左侧边缘点记为RLin,重映射右图像第i行的第n个右侧边缘点记为RRin,所有可能的视差集合记为C,那么所述的视差计算过程包含以下步骤:
步骤S4.1、找到重映射左图像中匹配区域的所有行的左侧边缘点LLi和右侧边缘点LRi,以及重映射右图像中匹配区域的所有行的左侧边缘点RLi和右侧边缘点RRi
步骤S4.2、令C=Φ,其中Φ是空集合;
步骤S4.3、针对匹配的每一行i,计算视差集合C:
如果LLim-RLin≥Dmin且LLim-RLin≤Dmax,则C=C+{LLim-RLin};
如果LRim-RRin≥Dmin且LRim-RRin≤Dmax,则C=C+{LRim-RRin};
步骤S4.4、计算该匹配区域的视差d=Median(C),其中,Median是取中值运算。
步骤S5、根据视差计算距离,计算的公式为:Z=f·T/d,其中,Z是物体的距离,f是摄像机的焦距,是立体校正得到的参数,单位是像素,T是立体标定使用的棋盘格的边长,单位是厘米,d是视差,单位是像素。
在本发明的一个具体实施例中,如图2所示,是待分割的图像;如图3所示,是分割后的图像;如图4所示,是区域匹配示例图,其中左图是重映射左图像,右图是重映射右图像;如图5所示,是视差计算示例图,其中左图是是重映射左图像,右图是重映射右图像;如图6所示,是视差图示例,其中左图是左图像,右图是视差图。
双目测距的重点和难点是区域匹配与视差计算,区域匹配与视差计算在每一次图像采集后都要重新进行,本发明把图像分割成各个区域,每个区域与某类物体对应,并且把分割得到的区域即物体作为匹配的基本单元,因为分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,所以这种基于图像分割的区域匹配与视差计算方法能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (6)

1.一种基于图像分割的双目测距方法,其特征在于,包含以下步骤:
图像分割:根据物体将左图像和右图像分割成各个区域,每个区域与某类物体对应,将分割得到的物体区域作为匹配的基本单元;
区域匹配:根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离对左图像和右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域;
视差计算:根据匹配区域的边缘点的水平距离计算视差。
2.如权利要求1所述的基于图像分割的双目测距方法,其特征在于,在双目摄像机安装完毕之后,进行第一次双目测距之前,需要对双目摄像机进行立体标定和立体校正,保存立体标定和立体校正得到的参数。
3.如权利要求2所述的基于图像分割的双目测距方法,其特征在于,双目摄像机中的左摄像机和右摄像机分别采集图像后,根据立体校正得到的参数对左摄像机采集的左图像和右摄像机采集的右图像进行重映射,得到重映射左图像和重映射右图像,重映射左图像作为左图像进行图像分割,重映射右图像作为右图像进行图像分割。
4.如权利要求3所述的基于图像分割的双目测距方法,其特征在于,假设R1i是重映射左图像中的任意一个区域,R2j是重映射右图像中的任意一个区域,则区域R1i与区域R2j匹配必须要同时满足下列所有条件:
1、|Y(R1i)-Y(R2j)|≤Yth,其中,Y(R)是区域R的亮度,Yth是亮度差的阈值;
2、W(R1i)/W(R2j)≤Wth,且W(R2j)/W(R1i)≤Wth,其中,W(R)是区域R的宽度,Wth是宽度比的阈值;
3、H(R1i)/H(R2j)≤Hth,且H(R2j)/H(R1i)≤Hth,其中,H(R)是区域R的高度,Hth是高度比的阈值;
4、N(R1i)/N(R2j)≤Nth,且N(R2j)/N(R1i)≤Nth,其中,N(R)是属于区域R的像素个数,Nth是像素数比的阈值;
5、LEFT(R1i)-LEFT(R2j)≥Dmin,且LEFT(R1i)-LEFT(R2j)≤Dmax,其中,LEFT(R)是区域R的最左边,Dmin是允许的最小视差,Dmax是允许的最大视差;
6、RIGHT(R1i)-RIGHT(R2j)≥Dmin,且RIGHT(R1i)-RIGHT(R2j)≤Dmax,其中,RIGHT(R)是区域R的最右边,Dmin是允许的最小视差,Dmax是允许的最大视差;
7、|LOW(R1i)-LOW(R2j)|≤Vth,其中,LOW(R)是区域R的最下边,Vth是允许的最大垂直偏移;
8、|HIGH(R1i)-HIGH(R2j)|≤Vth,其中,HIGH(R)是区域R的最上边,Vth是允许的最大垂直偏移。
5.如权利要求4所述的基于图像分割的双目测距方法,其特征在于,
假设像素Pij属于区域R,即Pij∈R,则第i行的左侧边缘点满足:且Pij∈R,右侧边缘点满足:Pij∈R且
如果重映射左图像第i行的第m个左侧边缘点记为LLim,重映射左图像第i行的第m个右侧边缘点记为LRim,重映射右图像第i行第n个的左侧边缘点记为RLin,重映射右图像第i行的第n个右侧边缘点记为RRin,所有可能的视差集合记为C,那么所述的视差计算过程包含以下步骤:
步骤S4.1、找到重映射左图像中匹配区域的所有行的左侧边缘点LLi和右侧边缘点LRi,以及重映射右图像中匹配区域的所有行的左侧边缘点RLi和右侧边缘点RRi
步骤S4.2、令C=Φ,其中,Φ是空集合;
步骤S4.3、针对匹配的每一行i,计算视差集合C:
如果LLim-RLin≥Dmin且LLim-RLin≤Dmax,则C=C+{LLim-RLin};
如果LRim-RRin≥Dmin且LRim-RRin≤Dmax,则C=C+{LRim-RRin};
步骤S4.4、计算该匹配区域的视差d=Median(C),其中,Median是取中值运算。
6.如权利要求1-5中任意一个所述的基于图像分割的双目测距方法,其特征在于,所述的基于图像分割的双目测距方法还包含以下步骤:
在得到视差计算结果之后,根据视差计算距离,计算的公式为:Z=f·T/d,其中,Z是物体的距离,f是摄像机的焦距,是立体校正得到的参数,单位是像素,T是立体标定使用的棋盘格的边长,单位是厘米,d是视差,单位是像素。
CN201510618179.1A 2015-09-25 2015-09-25 基于图像分割的双目测距方法 Active CN105277169B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510618179.1A CN105277169B (zh) 2015-09-25 2015-09-25 基于图像分割的双目测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510618179.1A CN105277169B (zh) 2015-09-25 2015-09-25 基于图像分割的双目测距方法

Publications (2)

Publication Number Publication Date
CN105277169A true CN105277169A (zh) 2016-01-27
CN105277169B CN105277169B (zh) 2017-12-22

Family

ID=55146601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510618179.1A Active CN105277169B (zh) 2015-09-25 2015-09-25 基于图像分割的双目测距方法

Country Status (1)

Country Link
CN (1) CN105277169B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441415A (zh) * 2016-09-22 2017-02-22 江铃汽车股份有限公司 一种车辆仪表视差的校核方法
CN108189757A (zh) * 2018-01-03 2018-06-22 潘荣兰 一种行车安全提示系统
CN108399630A (zh) * 2018-01-22 2018-08-14 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN109141344A (zh) * 2018-06-15 2019-01-04 北京众星智联科技有限责任公司 一种基于双目摄像头精准测距的方法及系统
CN109658451A (zh) * 2018-12-04 2019-04-19 深圳市道通智能航空技术有限公司 一种深度感知方法,装置和深度感知设备
CN110223257A (zh) * 2019-06-11 2019-09-10 北京迈格威科技有限公司 获取视差图的方法、装置、计算机设备和存储介质
CN110470228A (zh) * 2019-09-17 2019-11-19 福州大学 一种利用姿态角估计的双目视觉测距方法及系统
CN112424641A (zh) * 2018-05-14 2021-02-26 ams 国际有限公司 使用用于立体图像处理的飞行时间技术

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1484628A1 (en) * 2003-06-07 2004-12-08 Zeiss Optronik GmbH System and method for generating three-dimensional images
WO2008134829A2 (en) * 2007-05-04 2008-11-13 Interuniversitair Microelektronica Centrum A method and apparatus for real-time/on-line performing of multi view multimedia applications
CN101976455A (zh) * 2010-10-08 2011-02-16 东南大学 一种基于立体匹配的彩色图像三维重建方法
CN102074005A (zh) * 2010-12-30 2011-05-25 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
CN102999939A (zh) * 2012-09-21 2013-03-27 魏益群 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN103020964A (zh) * 2012-11-29 2013-04-03 北京航空航天大学 一种基于自适应分水岭的图割的双目立体匹配方法
CN103065351A (zh) * 2012-12-16 2013-04-24 华南理工大学 一种双目三维重建的方法
CN103390268A (zh) * 2012-05-11 2013-11-13 株式会社理光 物体区域分割方法和装置
CN104504688A (zh) * 2014-12-10 2015-04-08 上海大学 基于双目立体视觉的客流密度估计的方法和系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1484628A1 (en) * 2003-06-07 2004-12-08 Zeiss Optronik GmbH System and method for generating three-dimensional images
WO2008134829A2 (en) * 2007-05-04 2008-11-13 Interuniversitair Microelektronica Centrum A method and apparatus for real-time/on-line performing of multi view multimedia applications
CN101976455A (zh) * 2010-10-08 2011-02-16 东南大学 一种基于立体匹配的彩色图像三维重建方法
CN102074005A (zh) * 2010-12-30 2011-05-25 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
CN103390268A (zh) * 2012-05-11 2013-11-13 株式会社理光 物体区域分割方法和装置
CN102999939A (zh) * 2012-09-21 2013-03-27 魏益群 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN103020964A (zh) * 2012-11-29 2013-04-03 北京航空航天大学 一种基于自适应分水岭的图割的双目立体匹配方法
CN103065351A (zh) * 2012-12-16 2013-04-24 华南理工大学 一种双目三维重建的方法
CN104504688A (zh) * 2014-12-10 2015-04-08 上海大学 基于双目立体视觉的客流密度估计的方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MICHAEL BLEYER: "Object Stereo— Joint Stereo Matching and Object Segmentation", 《IEEE COMPUTER SCOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
刘维: "基于双目立体视觉的物体深度信息提取系统研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王玉翰: "基于双目立体视觉的深度信息测量", 《机电工程技术》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441415A (zh) * 2016-09-22 2017-02-22 江铃汽车股份有限公司 一种车辆仪表视差的校核方法
CN106441415B (zh) * 2016-09-22 2019-07-09 江铃汽车股份有限公司 一种车辆仪表视差的校核方法
CN108189757A (zh) * 2018-01-03 2018-06-22 潘荣兰 一种行车安全提示系统
CN108399630A (zh) * 2018-01-22 2018-08-14 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN112424641A (zh) * 2018-05-14 2021-02-26 ams 国际有限公司 使用用于立体图像处理的飞行时间技术
CN109141344A (zh) * 2018-06-15 2019-01-04 北京众星智联科技有限责任公司 一种基于双目摄像头精准测距的方法及系统
CN109658451A (zh) * 2018-12-04 2019-04-19 深圳市道通智能航空技术有限公司 一种深度感知方法,装置和深度感知设备
WO2020114433A1 (zh) * 2018-12-04 2020-06-11 深圳市道通智能航空技术有限公司 一种深度感知方法,装置和深度感知设备
CN109658451B (zh) * 2018-12-04 2021-07-30 深圳市道通智能航空技术股份有限公司 一种深度感知方法,装置和深度感知设备
CN110223257A (zh) * 2019-06-11 2019-09-10 北京迈格威科技有限公司 获取视差图的方法、装置、计算机设备和存储介质
CN110470228A (zh) * 2019-09-17 2019-11-19 福州大学 一种利用姿态角估计的双目视觉测距方法及系统
CN110470228B (zh) * 2019-09-17 2020-09-01 福州大学 一种利用姿态角估计的双目视觉测距方法及系统

Also Published As

Publication number Publication date
CN105277169B (zh) 2017-12-22

Similar Documents

Publication Publication Date Title
CN105277169A (zh) 基于图像分割的双目测距方法
CN109166077B (zh) 图像对齐方法、装置、可读存储介质及计算机设备
US7876954B2 (en) Method and device for generating a disparity map from stereo images and stereo matching method and device therefor
CN102136136B (zh) 基于自适应Census变换的光度不敏感立体匹配方法
CN106651897B (zh) 一种基于超像素分割的视差修正方法
CN108682039B (zh) 一种双目立体视觉测量方法
US9769460B1 (en) Conversion of monoscopic visual content to stereoscopic 3D
KR100745691B1 (ko) 차폐영역 검출을 이용한 양안 또는 다시점 스테레오 정합장치 및 그 방법
CN102074014A (zh) 一种利用基于图论的图像分割算法的立体匹配方法
US8989481B2 (en) Stereo matching device and method for determining concave block and convex block
JP2009139995A (ja) ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム
CN106530336B (zh) 基于色彩信息和图割理论的立体匹配方法
CN103440664A (zh) 一种生成高分辨率深度图的方法、系统及计算设备
CN108109148A (zh) 图像立体分配方法、移动终端
CN105005988A (zh) 一种基于交互式图像分割的立体匹配方法
CN111107337A (zh) 深度信息补全方法及其装置、监控系统和存储介质
CN112085802A (zh) 一种基于双目摄像头获取三维指静脉图像的方法
CN103646397A (zh) 基于多源数据融合的实时合成孔径透视成像方法
CN102708379B (zh) 一种立体视觉的遮挡像素分类算法
Abd Manap et al. Novel view synthesis based on depth map layers representation
Zhu et al. Hybrid scheme for accurate stereo matching
Zhou et al. Power line detect system based on stereo vision and FPGA
Xie et al. Application of intelligence binocular vision sensor: Mobility solutions for automotive perception system
CN111630569B (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
CN111010558B (zh) 一种基于短视频图像的立木深度图生成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant