CN105277169B - 基于图像分割的双目测距方法 - Google Patents

基于图像分割的双目测距方法 Download PDF

Info

Publication number
CN105277169B
CN105277169B CN201510618179.1A CN201510618179A CN105277169B CN 105277169 B CN105277169 B CN 105277169B CN 201510618179 A CN201510618179 A CN 201510618179A CN 105277169 B CN105277169 B CN 105277169B
Authority
CN
China
Prior art keywords
image
region
parallax
side edge
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510618179.1A
Other languages
English (en)
Other versions
CN105277169A (zh
Inventor
薛振武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ambarella Inc
Original Assignee
Ambarella Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ambarella Inc filed Critical Ambarella Inc
Priority to CN201510618179.1A priority Critical patent/CN105277169B/zh
Publication of CN105277169A publication Critical patent/CN105277169A/zh
Application granted granted Critical
Publication of CN105277169B publication Critical patent/CN105277169B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一种基于图像分割的双目测距方法,首先根据物体将左图像和右图像分割成各个区域,再根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离对左图像和右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域,最后根据匹配区域的边缘点的水平距离计算视差。本发明分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。

Description

基于图像分割的双目测距方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于图像分割的双目测距方法。
背景技术
目前流行的距离测量方法有超声波测距﹑雷达测距﹑激光测距和摄像机测距等。其中超声波测距﹑雷达测距和激光测距属于主动式测距,需要主动发射超声波﹑毫米波﹑微波或者激光等,具有成本高昂﹑测量精度高的特点,而摄像机测距属于被动式测距,只需要光学成像系统,具有成本低廉﹑准确度高的特点。摄像机测距分为单目测距和双目测距,其中双目测距的准确度更高,应用也更为广泛,是目前计算机视觉领域的一个重要研究方向。
双目测距主要有两个步骤:1、立体标定和立体校正:该步骤的目的是消除摄像机的畸变并使得左右图像的对极线在同一水平线上以及达到行对准,立体标定和立体校正步骤通常只需要在双目摄像机安装完毕后执行一次,然后把立体校正的参数保存下来供后续步骤使用;2、立体匹配:该步骤的目的是要找到与左图中任意一点匹配的右图上的点,进而计算出相应的视差,最终得到距离,立体匹配步骤在每一次采集图像后都要重新进行。
双目测距的难点和重点是立体匹配,它对于测量距离的准确性有着至关重要的影响,目前主流的立体匹配方法有:块匹配法(Block Matching)、半全局块匹配法(Semi-Global Block Matching)、归一化互相关和匹配法(Sum of Normalized CrossCorrelation)、置信度传播匹配法(Belief Propagation)等,这些方法都是以固定大小的块作为匹配的基本单元,当图像中存在大面积的低纹理区域时,这些方法无法得到准确有效的视差信息,因此计算得到的视差图十分稀疏。
发明内容
本发明提供一种基于图像分割的双目测距方法,根据物体将图像分割成各个区域,这样分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。
为了达到上述目的,本发明提供一种基于图像分割的双目测距方法,包含以下步骤:
图像分割:根据物体将左图像和右图像分割成各个区域,每个区域与某类物体对应,将分割得到的物体区域作为匹配的基本单元;
区域匹配:根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离对左图像和右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域;
视差计算:根据匹配区域的边缘点的水平距离计算视差。
在双目摄像机安装完毕之后,进行第一次双目测距之前,需要对双目摄像机进行立体标定和立体校正,保存立体标定和立体校正得到的参数。
双目摄像机中的左摄像机和右摄像机分别采集图像后,根据立体校正得到的参数对左摄像机采集的左图像和右摄像机采集的右图像进行重映射,得到重映射左图像和重映射右图像,重映射左图像作为左图像进行图像分割,重映射右图像作为右图像进行图像分割。
假设R1i是重映射左图像中的任意一个区域,R2j是重映射右图像中的任意一个区域,则区域R1i与区域R2j匹配必须要同时满足下列所有条件:
1、|Y(R1i)-Y(R2j)|≤Yth,其中,Y(R)是区域R的亮度,Yth是亮度差的阈值;
2、W(R1i)/W(R2j)≤Wth,且W(R2j)/W(R1i)≤Wth,其中,W(R)是区域R的宽度,Wth是宽度比的阈值;
3、H(R1i)/H(R2j)≤Hth,且H(R2j)/H(R1i)≤Hth,其中,H(R)是区域R的高度,Hth是高度比的阈值;
4、N(R1i)/N(R2j)≤Nth,且N(R2j)/N(R1i)≤Nth,其中,N(R)是属于区域R的像素个数,Nth是像素数比的阈值;
5、LEFT(R1i)-LEFT(R2j)≥Dmin,且LEFT(R1i)-LEFT(R2j)≤Dmax,其中,LEFT(R)是区域R的最左边,Dmin是允许的最小视差,Dmax是允许的最大视差;
6、RIGHT(R1i)-RIGHT(R2j)≥Dmin,且RIGHT(R1i)-RIGHT(R2j)≤Dmax,其中,RIGHT(R)是区域R的最右边,Dmin是允许的最小视差,Dmax是允许的最大视差;
7、|LOW(R1i)-LOW(R2j)|≤Vth,其中,LOW(R)是区域R的最下边,Vth是允许的最大垂直偏移;
8、|HIGH(R1i)-HIGH(R2j)|≤Vth,其中,HIGH(R)是区域R的最上边,Vth是允许的最大垂直偏移。
假设像素Pij属于区域R,即Pij∈R,则第i行的左侧边缘点满足:且Pij∈R,右侧边缘点满足:Pij∈R且
如果重映射左图像第i行的第m个左侧边缘点记为LLim,重映射左图像第i行的第m个右侧边缘点记为LRim,重映射右图像第i行第n个的左侧边缘点记为RLin,重映射右图像第i行的第n个右侧边缘点记为RRin,所有可能的视差集合记为C,那么所述的视差计算过程包含以下步骤:
步骤S4.1、找到重映射左图像中匹配区域的所有行的左侧边缘点LLi和右侧边缘点LRi,以及重映射右图像中匹配区域的所有行的左侧边缘点RLi和右侧边缘点RRi
步骤S4.2、令C=Φ,其中Φ是空集合;
步骤S4.3、针对匹配的每一行i,计算视差集合C:
如果LLim-RLin≥Dmin且LLim-RLin≤Dmax,则C=C+{LLim-RLin};
如果LRim-RRin≥Dmin且LRim-RRin≤Dmax,则C=C+{LRim-RRin};
步骤S4.4、计算该匹配区域的视差d=Median(C),其中,Median是取中值运算。
所述的基于图像分割的双目测距方法还包含以下步骤:
在得到视差计算结果之后,根据视差计算距离,计算的公式为:Z=f·T/d,其中,Z是物体的距离,f是摄像机的焦距,是立体校正得到的参数,单位是像素,T是立体标定使用的棋盘格的边长,单位是厘米,d是视差,单位是像素。
本发明根据物体将图像分割成各个区域,这样分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。
附图说明
图1是本发明的流程图。
图2是待分割的图像;
图3是图像分割示意图。
图4是区域匹配示意图。
图5是视差计算示意图。
图6是视差图。
具体实施方式
以下根据图1~图6,具体说明本发明的较佳实施例。
如图1所示,本发明提供一种基于图像分割的双目测距方法,包含以下步骤:
步骤S0、对双目摄像机进行立体标定和立体校正;
所述的立体标定和立体校正通常只在双目摄像机安装完毕后执行一次,立体标定和立体校正是线下进行的,立体标定和立体校正得到的参数被保存下来供后续使用;
立体标定与立体校正的目的是消除双目摄像机的畸变,使得三维世界里的每一点在双目摄像机中的左右摄像机的图像里处于同一水平线上,也就是垂直视差为0;
OpenCV与Matlab均有成熟的立体标定与立体校正算法,可以很容易的得到双目摄像机的校正参数;
步骤S1、图像采集和图像重映射;
双目摄像机中的左摄像机和右摄像机分别采集图像后,根据立体校正得到的参数对左摄像机采集的左图像和右摄像机采集的右图像进行重映射,得到重映射左图像和重映射右图像;
步骤S2、图像分割;
根据物体将重映射左图像和重映射右图像分割成各个区域,每个区域与某类物体对应,将分割得到的物体区域作为匹配的基本单元;
利用现有的图像分割算法分割重映射左图像和重映射右图像;
步骤S3、区域匹配;
根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离等信息对重映射左图像和重映射右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域;
假设R1i是重映射左图像中的任意一个区域,R2j是重映射右图像中的任意一个区域,则区域R1i与区域R2j匹配必须要同时满足下列所有条件:
1、|Y(R1i)-Y(R2j)|≤Yth,其中,Y(R)是区域R的亮度,Yth是亮度差的阈值;
2、W(R1i)/W(R2j)≤Wth,且W(R2j)/W(R1i)≤Wth,其中,W(R)是区域R的宽度,Wth是宽度比的阈值;
3、H(R1i)/H(R2j)≤Hth,且H(R2j)/H(R1i)≤Hth,其中,H(R)是区域R的高度,Hth是高度比的阈值;
4、N(R1i)/N(R2j)≤Nth,且N(R2j)/N(R1i)≤Nth,其中,N(R)是属于区域R的像素个数,Nth是像素数比的阈值;
5、LEFT(R1i)-LEFT(R2j)≥Dmin,且LEFT(R1i)-LEFT(R2j)≤Dmax,其中,LEFT(R)是区域R的最左边,Dmin是允许的最小视差,Dmax是允许的最大视差;
6、RIGHT(R1i)-RIGHT(R2j)≥Dmin,且RIGHT(R1i)-RIGHT(R2j)≤Dmax,其中,RIGHT(R)是区域R的最右边,Dmin是允许的最小视差,Dmax是允许的最大视差;
7、|LOW(R1i)-LOW(R2j)|≤Vth,其中,LOW(R)是区域R的最下边,Vth是允许的最大垂直偏移;
8、|HIGH(R1i)-HIGH(R2j)|≤Vth,其中,HIGH(R)是区域R的最上边,Vth是允许的最大垂直偏移;
其中,各阈值的默认值是Yth=32,Wth=1.2,Hth=1.2,Nth=1.3,Vth=8,实际应用中可以根据具体情况进行调节;
步骤S4、视差计算;
根据匹配区域的边缘点的水平距离计算视差;
假设像素Pij属于区域R,即Pij∈R,则第i行的左侧边缘点满足:且Pij∈R,右侧边缘点满足:Pij∈R且
如果重映射左图像第i行的第m个左侧边缘点记为LLim,重映射左图像第i行的第m个右侧边缘点记为LRim,重映射右图像第i行第n个的左侧边缘点记为RLin,重映射右图像第i行的第n个右侧边缘点记为RRin,所有可能的视差集合记为C,那么所述的视差计算过程包含以下步骤:
步骤S4.1、找到重映射左图像中匹配区域的所有行的左侧边缘点LLi和右侧边缘点LRi,以及重映射右图像中匹配区域的所有行的左侧边缘点RLi和右侧边缘点RRi
步骤S4.2、令C=Φ,其中Φ是空集合;
步骤S4.3、针对匹配的每一行i,计算视差集合C:
如果LLim-RLin≥Dmin且LLim-RLin≤Dmax,则C=C+{LLim-RLin};
如果LRim-RRin≥Dmin且LRim-RRin≤Dmax,则C=C+{LRim-RRin};
步骤S4.4、计算该匹配区域的视差d=Median(C),其中,Median是取中值运算。
步骤S5、根据视差计算距离,计算的公式为:Z=f·T/d,其中,Z是物体的距离,f是摄像机的焦距,是立体校正得到的参数,单位是像素,T是立体标定使用的棋盘格的边长,单位是厘米,d是视差,单位是像素。
在本发明的一个具体实施例中,如图2所示,是待分割的图像;如图3所示,是分割后的图像;如图4所示,是区域匹配示例图,其中左图是重映射左图像,右图是重映射右图像;如图5所示,是视差计算示例图,其中左图是是重映射左图像,右图是重映射右图像;如图6所示,是视差图示例,其中左图是左图像,右图是视差图。
双目测距的重点和难点是区域匹配与视差计算,区域匹配与视差计算在每一次图像采集后都要重新进行,本发明把图像分割成各个区域,每个区域与某类物体对应,并且把分割得到的区域即物体作为匹配的基本单元,因为分割得到的区域的边缘含有丰富的纹理信息,可以根据边缘的位置计算得到该区域的视差,所以这种基于图像分割的区域匹配与视差计算方法能够得到紧密的视差图,对于含有大面积低纹理区域的场景尤其有效。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (5)

1.一种基于图像分割的双目测距方法,其特征在于,包含以下步骤:
图像分割:根据物体将左图像和右图像分割成各个区域,每个区域与某类物体对应,将分割得到的物体区域作为匹配的基本单元;
区域匹配:根据亮度﹑宽度﹑高度﹑像素数量﹑水平距离﹑垂直距离对左图像和右图像分割得到的区域进行匹配,找到同一物体在左右图像中对应的区域;
视差计算:根据匹配区域的边缘点的水平距离计算视差;
在得到视差计算结果之后,根据视差计算距离,计算的公式为:Z=f·T/d,其中,Z是物体的距离,f是摄像机的焦距,是立体校正得到的参数,单位是像素,T是立体标定使用的棋盘格的边长,单位是厘米,d是视差,单位是像素。
2.如权利要求1所述的基于图像分割的双目测距方法,其特征在于,在双目摄像机安装完毕之后,进行第一次双目测距之前,需要对双目摄像机进行立体标定和立体校正,保存立体标定和立体校正得到的参数。
3.如权利要求2所述的基于图像分割的双目测距方法,其特征在于,双目摄像机中的左摄像机和右摄像机分别采集图像后,根据立体校正得到的参数对左摄像机采集的左图像和右摄像机采集的右图像进行重映射,得到重映射左图像和重映射右图像,重映射左图像作为左图像进行图像分割,重映射右图像作为右图像进行图像分割。
4.如权利要求3所述的基于图像分割的双目测距方法,其特征在于,假设R1i是重映射左图像中的任意一个区域,R2j是重映射右图像中的任意一个区域,则区域R1i与区域R2j匹配必须要同时满足下列所有条件:
1、|Y(R1i)-Y(R2j)|≤Yth,其中,Y(R)是区域R的亮度,Yth是亮度差的阈值;
2、W(R1i)/W(R2j)≤Wth,且W(R2j)/W(R1i)≤Wth,其中,W(R)是区域R的宽度,Wth是宽度比的阈值;
3、H(R1i)/H(R2j)≤Hth,且H(R2j)/H(R1i)≤Hth,其中,H(R)是区域R的高度,Hth是高度比的阈值;
4、N(R1i)/N(R2j)≤Nth,且N(R2j)/N(R1i)≤Nth,其中,N(R)是属于区域R的像素个数,Nth是像素数比的阈值;
5、LEFT(R1i)-LEFT(R2j)≥Dmin,且LEFT(R1i)-LEFT(R2j)≤Dmax,其中,LEFT(R)是区域R的最左边,Dmin是允许的最小视差,Dmax是允许的最大视差;
6、RIGHT(R1i)-RIGHT(R2j)≥Dmin,且RIGHT(R1i)-RIGHT(R2j)≤Dmax,其中,RIGHT(R)是区域R的最右边,Dmin是允许的最小视差,Dmax是允许的最大视差;
7、|LOW(R1i)-LOW(R2j)|≤Vth,其中,LOW(R)是区域R的最下边,Vth是允许的最大垂直偏移;
8、|HIGH(R1i)-HIGH(R2j)|≤Vth,其中,HIGH(R)是区域R的最上边,Vth是允许的最大垂直偏移。
5.如权利要求4所述的基于图像分割的双目测距方法,其特征在于,
假设像素Pij属于区域R,即Pij∈R,则第i行的左侧边缘点满足:且Pij∈R,右侧边缘点满足:Pij∈R且
如果重映射左图像第i行的第m个左侧边缘点记为LLim,重映射左图像第i行的第m个右侧边缘点记为LRim,重映射右图像第i行第n个的左侧边缘点记为RLin,重映射右图像第i行的第n个右侧边缘点记为RRin,所有可能的视差集合记为C,那么所述的视差计算过程包含以下步骤:
步骤S4.1、找到重映射左图像中匹配区域的所有行的左侧边缘点LLi和右侧边缘点LRi,以及重映射右图像中匹配区域的所有行的左侧边缘点RLi和右侧边缘点RRi
步骤S4.2、令C=Φ,其中,Φ是空集合;
步骤S4.3、针对匹配的每一行i,计算视差集合C:
如果LLim-RLin≥Dmin且LLim-RLin≤Dmax,则C=C+{LLim-RLin};
如果LRim-RRin≥Dmin且LRim-RRin≤Dmax,则C=C+{LRim-RRin};
步骤S4.4、计算该匹配区域的视差d=Median(C),其中,Median是取中值运算。
CN201510618179.1A 2015-09-25 2015-09-25 基于图像分割的双目测距方法 Active CN105277169B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510618179.1A CN105277169B (zh) 2015-09-25 2015-09-25 基于图像分割的双目测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510618179.1A CN105277169B (zh) 2015-09-25 2015-09-25 基于图像分割的双目测距方法

Publications (2)

Publication Number Publication Date
CN105277169A CN105277169A (zh) 2016-01-27
CN105277169B true CN105277169B (zh) 2017-12-22

Family

ID=55146601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510618179.1A Active CN105277169B (zh) 2015-09-25 2015-09-25 基于图像分割的双目测距方法

Country Status (1)

Country Link
CN (1) CN105277169B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441415B (zh) * 2016-09-22 2019-07-09 江铃汽车股份有限公司 一种车辆仪表视差的校核方法
CN108189757B (zh) * 2018-01-03 2021-02-19 矩阵数据科技(上海)有限公司 一种行车安全提示系统
CN108399630B (zh) * 2018-01-22 2022-07-08 北京理工雷科电子信息技术有限公司 一种复杂场景下感兴趣区域内目标快速测距方法
CN112424641A (zh) * 2018-05-14 2021-02-26 ams 国际有限公司 使用用于立体图像处理的飞行时间技术
CN109141344A (zh) * 2018-06-15 2019-01-04 北京众星智联科技有限责任公司 一种基于双目摄像头精准测距的方法及系统
CN109658451B (zh) * 2018-12-04 2021-07-30 深圳市道通智能航空技术股份有限公司 一种深度感知方法,装置和深度感知设备
CN110223257B (zh) * 2019-06-11 2021-07-09 北京迈格威科技有限公司 获取视差图的方法、装置、计算机设备和存储介质
CN110470228B (zh) * 2019-09-17 2020-09-01 福州大学 一种利用姿态角估计的双目视觉测距方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1484628A1 (en) * 2003-06-07 2004-12-08 Zeiss Optronik GmbH System and method for generating three-dimensional images
WO2008134829A3 (en) * 2007-05-04 2009-02-05 Imec Inter Uni Micro Electr A method and apparatus for real-time/on-line performing of multi view multimedia applications
CN101976455A (zh) * 2010-10-08 2011-02-16 东南大学 一种基于立体匹配的彩色图像三维重建方法
CN102074005A (zh) * 2010-12-30 2011-05-25 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
CN102999939A (zh) * 2012-09-21 2013-03-27 魏益群 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN103020964A (zh) * 2012-11-29 2013-04-03 北京航空航天大学 一种基于自适应分水岭的图割的双目立体匹配方法
CN103065351A (zh) * 2012-12-16 2013-04-24 华南理工大学 一种双目三维重建的方法
CN103390268A (zh) * 2012-05-11 2013-11-13 株式会社理光 物体区域分割方法和装置
CN104504688A (zh) * 2014-12-10 2015-04-08 上海大学 基于双目立体视觉的客流密度估计的方法和系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1484628A1 (en) * 2003-06-07 2004-12-08 Zeiss Optronik GmbH System and method for generating three-dimensional images
WO2008134829A3 (en) * 2007-05-04 2009-02-05 Imec Inter Uni Micro Electr A method and apparatus for real-time/on-line performing of multi view multimedia applications
CN101976455A (zh) * 2010-10-08 2011-02-16 东南大学 一种基于立体匹配的彩色图像三维重建方法
CN102074005A (zh) * 2010-12-30 2011-05-25 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
CN103390268A (zh) * 2012-05-11 2013-11-13 株式会社理光 物体区域分割方法和装置
CN102999939A (zh) * 2012-09-21 2013-03-27 魏益群 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN103020964A (zh) * 2012-11-29 2013-04-03 北京航空航天大学 一种基于自适应分水岭的图割的双目立体匹配方法
CN103065351A (zh) * 2012-12-16 2013-04-24 华南理工大学 一种双目三维重建的方法
CN104504688A (zh) * 2014-12-10 2015-04-08 上海大学 基于双目立体视觉的客流密度估计的方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Object Stereo— Joint Stereo Matching and Object Segmentation;Michael Bleyer;《IEEE Computer Scociety Conference on Computer Vision and Pattern Recognition》;20110630;全文 *
基于双目立体视觉的深度信息测量;王玉翰;《机电工程技术》;20150320;全文 *
基于双目立体视觉的物体深度信息提取系统研究;刘维;《中国优秀硕士学位论文全文数据库 信息科技辑》;20100415;正文第8页第1.6节、第15页第1段、第44页第4.4节以及第55也第5.5节和附图5-3) *

Also Published As

Publication number Publication date
CN105277169A (zh) 2016-01-27

Similar Documents

Publication Publication Date Title
CN105277169B (zh) 基于图像分割的双目测距方法
Feng et al. Local background enclosure for RGB-D salient object detection
US10445924B2 (en) Method and device for processing DVS events
CN107392958B (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
CN108076338B (zh) 图像视觉处理方法、装置及设备
US8644596B1 (en) Conversion of monoscopic visual content using image-depth database
CN101086788B (zh) 产生视差图的方法和装置及其立体匹配方法和装置
US9237326B2 (en) Imaging system and method
US20140086451A1 (en) Method and apparatus for detecting continuous road partition
CN106341676B (zh) 基于超像素的深度图像预处理和深度空洞填充方法
KR20120068470A (ko) 스테레오 영상 정합 장치 및 그 방법
US9111350B1 (en) Conversion of monoscopic visual content to stereoscopic 3D
JP2011223566A (ja) 画像変換装置及びこれを含む立体画像表示装置
CN106651897B (zh) 一种基于超像素分割的视差修正方法
US9530212B2 (en) Image frame conversion method and video frame conversion method and apparatus
US20230125649A1 (en) Image inpainting method and electronic device
CN103440664A (zh) 一种生成高分辨率深度图的方法、系统及计算设备
CN106530336B (zh) 基于色彩信息和图割理论的立体匹配方法
CN101510304B (zh) 一种分割获取前景图像的方法、装置和摄像头
CN108109148A (zh) 图像立体分配方法、移动终端
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
CN105023263B (zh) 一种基于区域生长的遮挡检测和视差校正的方法
Chi et al. Bev-san: Accurate bev 3d object detection via slice attention networks
CN103646397A (zh) 基于多源数据融合的实时合成孔径透视成像方法
CN102708379B (zh) 一种立体视觉的遮挡像素分类算法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant