CN110148168A - 一种基于大小双基线的三目相机深度图像处理方法 - Google Patents

一种基于大小双基线的三目相机深度图像处理方法 Download PDF

Info

Publication number
CN110148168A
CN110148168A CN201910432950.4A CN201910432950A CN110148168A CN 110148168 A CN110148168 A CN 110148168A CN 201910432950 A CN201910432950 A CN 201910432950A CN 110148168 A CN110148168 A CN 110148168A
Authority
CN
China
Prior art keywords
baseline
parallax
range
big
phase unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910432950.4A
Other languages
English (en)
Other versions
CN110148168B (zh
Inventor
李杨
都思丹
王杰
李明
陈旭东
彭成磊
陆胜
杨帆
黎琪
陈佟
周子豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201910432950.4A priority Critical patent/CN110148168B/zh
Publication of CN110148168A publication Critical patent/CN110148168A/zh
Application granted granted Critical
Publication of CN110148168B publication Critical patent/CN110148168B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了基于大小双基线的三目相机深度图像处理方法,通过引入小基线相机组减少计算量,提高计算速度,同时通过大基线相机组进行小范围的立体匹配提高视差图精度,从而达到在提高精度的同时减少立体匹配的计算量的目的。本发明对于现有的双目相机系统,额外添加一个小基线相机,在相同的算法下,通过先计算小基线相机组的视差图,以其为基准扩展一个视差搜索窗口用于大基线相机组的立体匹配,这样不仅可以提高精度同时还减小了计算量,加快了计算速度,提高了整个系统在实际应用场景中的精度与效率,而且还降低了计算量。因此本发明的整个过程能大幅减少立体匹配的计算时间,同时还提高了算法的精度,在实时平台上具有极大应用前景。

Description

一种基于大小双基线的三目相机深度图像处理方法
技术领域
本发明涉及计算机立体视觉领域,更具体的,涉及一种基于大小双基线的三目相机的深度图像处理方法。
背景技术
立体视觉是近年来计算机视觉领域中最广泛的研究课题之一,在许多领域中被广泛使用,例如障碍物检测,驾驶辅助,三维重建和运动检测等。计算机立体视觉系统通过模仿人类的视觉系统,根据对同一场景从不同位置拍摄的两视角或多视角图像,采用几何方法可以计算出深度信息的技术。从获得的不同视点的多个相机拍摄的图片中找到场景中对应的同一点的过程被称为立体匹配。
现有方法大多采用双目立体视觉系统,对双目立体匹配算法的研究也占大多数。如图1所示,一般来说,大多数立体匹配算法可以概括为四个步骤:
(1)匹配代价计算
(2)代价聚合
(3)视差计算
(4)视差精化(后处理)
而具体步骤的实施细节取决于算法本身。根据步骤1、2、3的不同,大多数算法分为两种主要类型,局部算法和全局算法。
基于局部区域约束的匹配算法利用给定位置周围的局部信息进行计算,涉及信息量较少,计算复杂度较低,大多实时性平台借鉴了此算法的思想。但其对无纹理、视差不连续和遮挡区域匹配效果不理想。局部算法可以进一步的分为特征匹配算法和区域匹配算法两类。特征匹配算法首先从待匹配图像中提取特征,用相似性度量和一些约束条件确定几何变换,最后将该变换作用于待匹配图像。这类方法主要包括特征提取、特征匹配、模型变换、插值与视差求精等几个步骤。区域匹配算法使用匹配窗,对所有子区域匹配窗口进行相似性度量来确定对应的区域。区域匹配中有两个问题很重要,一是相似性准则的选取,一是窗口的选取。一些常用的区域匹配相关准则有:绝对值球和算法(sum-of-absolute-differences)、归一化互相关算法(Normalized Cross Correlation)、Census变换等。
与局部算法相比,全局算法可以有更好的匹配精度,但不可避免的引入了更大的计算量。它将该问题转化为能量最下化问题,首先构造一个能量函数,其形式一般为数据项+平滑项,其中数据项描述了匹配度,平滑项体现了定义场景的约束,进而使用动态规划、置信扩展和图割等优化算法求解该能量最小化问题。
同时,很值得一提的是,在使用相同算法的情况下,最大视差搜索范围(后文中使用D_MAX表示)对算法运行的时间和结果的精度都有很大的相应。显而易见,D_MAX与计算量成正比,D_MAX越大,计算量越大,从而消耗的时间越大;另一方面,D_MAX的大小与真实的相机设备中的基线长短有关,D_MAX越大,对深度的分辨率就越高,进而可以整体提高匹配精度。特别的,在一些需要大基线相机使用的场景下,过大的D_MAX还可能引入遮挡问题导致精度下降。
对于立体匹配算法,其研究的重点问题便在于如何平衡速度和精度,及如何做到精度较高的实施立体匹配算法。随着如今深度学习和硬件的发展,越来越多的新方法和新的硬件平台(如GPU、FPGA)被应用到立体匹配中,但仍存在上述提到的问题。人们基于优先考虑精度的想法尝试做三目立体匹配,但其算法只基于增加一幅图片的信息去提高匹配精度,但大大增加了算法的计算量,导致计算速度大大下降。目前对于三目立体匹配的研究还是比较少,我们在此专利中将提出一种基于大小双基线的三目立体匹配算法,该算法通过提出的新颖的三目立体匹配模型和动态视差范围,平衡算法的精度与时间,可以在确保得到更好的精度的前提下加快计算速度。
发明内容
针对上述现有技术中的问题,本发明公开了一种基于大小双基线的三目相机深度图像处理方法,通过引入小基线相机组减少计算量,提高计算速度,同时通过大基线相机组进行小范围的立体匹配提高视差图精度,从而达到在提高精度的同时减少立体匹配的计算量的目的,同时本发明还提出了两种大小双基线三目相机模型。
为了实现上述发明目的,本发明采用的技术方案为:一种基于大小双基线的三目相机深度图像处理方法,其特征在于,包括以下步骤:
步骤一、左中右三个视点同一型号的相机对同一场景进行同时拍摄,其中左中为小基线相机组,左右为大基线相机组,对所拍摄的图片进行校正,获得校正后的左中右不同视点的图片;
步骤二、对左中小基线相机组得到的图片进行立体匹配,具体操作为对于左相机拍摄的图像中的点p,在D_MAX_S内计算匹配代价值,并进行后续一系列的代价聚合、视差计算以及视差精化处理,得到初始视差d;
步骤三、对左右大基线相机组得到的图片进行立体匹配,因为大小基线之比为4:1,视差与基线为正比关系,所以大基线中的视差应是小基线的四倍,对于点p,以小基线得到的初始视差d的四倍作为视差基准值D,以该基准值左右扩展一个小范围视差搜索窗口进行匹配代价的计算以及后续的代价聚合、视差计算和视差精化处理;
步骤四、在大基线的视差精化处理中基于三幅图片进行遮挡处理,具体为大基线中的遮挡区域利用小基线的有小视察值填充,最终得到左右两台相机大基线的高精度视差图。
步骤一中,采用两种三目相机模型。其中“一”字型为三台相机水平摆放,左中为小基线相机组,左右为大基线相机组;“L”型为三台相机呈L字母状摆放,左上与左相机为小基线相机组,左右为大基线相机组,“L”型更适应缺乏纵向纹理的情况,增加纵向维度信息也可以更好的处理遮挡问题。
步骤二中,令视差搜索范围为(0,D_MAX_S),其中D_MAX_S为视差搜索最大值,采用census变化计算初始匹配代价,通过SGM算法进行代价聚合,通过WTA策略得到视差值,再进行视差值精化(后处理),该过程包括:唯一性检测,左右一致性检测,亚像素精化,连通域检测,遮挡填充方法。
步骤三中,进行左右大基线相机组视差图计算,对于当前计算点p,查找到左中小基线相机组得到的视差图中点p的视差值d,以d的四倍为基准左右开辟d_range的视差搜索范围,从而将大基线的视差搜索范围从(0,D_MAX_L)缩减到(4*d-d_range,4*d+d_range),其中之所以要将d乘以4之后再作为大基线相机组视差值的基准是因为大小基线之比为4:1,在这里d扩大的倍数应与大小基线的比值对应,d_range是设定的扩展搜索范围,同时应控制4*d-d_range>=0,4*d+d_range<=D_MAX_L。
在(4*d-d_range,4*d+d_range)范围内进行匹配代价值计算,代价聚合,视差值计算以及视差精化处理。
本发明具有以下有益效果:1、对于现有的双目相机系统,额外添加一个小基线相机,在相同的算法下,通过先计算小基线相机组的视差图,以其为基准扩展一个视差搜索窗口用于大基线相机组的立体匹配,这样不仅可以提高精度同时还减小了计算量,加快了计算速度,提高了整个系统在实际应用场景中的精度与效率。2、通过增加一个小基线的相机,解决了某些只适用于大基线双目相机因为基线过大的问题引入的遮挡问题,同时对于“L”型模型,增加纵向维度信息,可以有效改善遮挡问题处理,提高了视差图精度,而且还降低了计算量。因此本发明的整个过程能大幅减少立体匹配的计算时间,同时还提高了算法的精度,在实时平台上具有极大应用前景。
附图说明
图1为本发明实施例的“一”字型和“L”型大小双基线三目相机模型。
图2是本发明实施例的针对“一”字型模型的方法流程图。
图3是本发明实施例的针对“L”型模型的方法流程图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。
本实施例的基于大小双基线的三目相机深度图像处理方法,两种相机模型分别是“一”字型和“L”型。如图1所示,“一”字型相机模型为左、中、右三个相机水平摆放,其中左中为小基线相机组,左右为大基线相机组,匹配时以左图为基准图;“L”型相机模型为左、左上、右三个相机组成,其中左上相机位于左相机的正上方,为小基线相机组,左右相机位于同一水平面,为大基线相机组。相比“一”字型相机模型,“L”型相机模型增添了纵向维度图片信息,可以更好应对纵向无纹理区域,同时水平和竖直方向上的遮挡区域可以互相填充,对于遮挡处理更好优秀。在此模型中,大小基线比值为4:1,那么对应基线D_MAX_L:D_MAX_S=4:1,其中D_MAX_L表示大基线情况下的最大视差搜索范围,D_MAX_S表示小基线情况下的最大视差搜索范围,根据不同的实际应用情况可以更改此比值,本发明中以此比值为例进行说明。
先通过小基线的两幅图片获得低精度的视差图,在低精度的视差图的基础上扩展一个小范围的视察搜索范围应用于大基线的两幅图去得到高精度的视差图,同时利用小基线的图进行后处理消除遮挡,减少立体匹配的计算时量,整体或部分地解决一个或多个上述问题或缺点。
本实施例的技术实现方案,以“一”字型为例,本发明的基于大小双基线的三目相机深度图像处理方法,包括以下步骤:
步骤1、左中右三个视点同一型号的相机对同一场景进行同时拍摄,其中左中为小基线相机组,左右为大基线相机组,对所拍摄的图片进行校正,获得校正后的左中右不同视点的图片。
步骤2、对左中小基线相机组得到的图片进行立体匹配。具体操作为对于左图中的点p,在D_MAX_S内计算匹配代价值,并进行后续一系列的代价聚合、视差计算以及视差精化处理,得到初始视差d。
步骤3、对左右大基线相机组得到的图片进行立体匹配。因为大小基线之比为4:1,视差与基线为正比关系,所以大基线中的视差应是小基线的四倍。对于点p,以小基线得到的初始视差d的四倍作为视差基准值D,以该基准值左右扩展一个小范围视差搜索窗口进行匹配代价的计算以及后续的代价聚合、视差计算和视差精化处理。
步骤4、在大基线的视差精化处理中基于三幅图片进行遮挡处理。具体为大基线中的遮挡区域利用小基线的有小视察值填充,最终得到左右两台相机大基线的高精度视差图。
步骤1进一步包括如下技术特征:采用两种三目相机模型。其中“一”字型为三台相机水平摆放,左中为小基线相机组,左右为大基线相机组;“L”型为三台相机呈L字母状摆放,左上与左相机为小基线相机组,左右为大基线相机组,“L”型更适应缺乏纵向纹理的情况,增加纵向维度信息也可以更好的处理遮挡问题。
步骤2进一步包括如下技术特征:令视差搜索范围为(0,D_MAX_S),其中D_MAX_S为视差搜索最大值,采用census变化计算初始匹配代价,通过SGM算法进行代价聚合,通过WTA策略得到视差值,再进行视差值精化(后处理),该过程包括:唯一性检测,左右一致性检测,亚像素精化,连通域检测,遮挡填充等算法。
步骤3进一步包括如下技术特征:进行左右大基线相机组视差图计算,对于当前计算点p,查找到左中小基线相机组得到的视差图中点p的视差值d,以d的四倍为基准左右开辟d_range的视差搜索范围,从而将大基线的视差搜索范围从(0,D_MAX_L)缩减到(4*d-d_range,4*d+d_range),其中之所以要将d乘以4之后再作为大基线相机组视差值的基准是因为前文提到大小基线之比为4:1,在这里d扩大的倍数应与大小基线的比值对应,d_range是设定的扩展搜索范围。同时应控制4*d-d_range>=0,4*d+d_range<=D_MAX_L。
进一步的,在(4*d-d_range,4*d+d_range)范围内进行匹配代价值计算,代价聚合,视差值计算以及视差精化处理。
进一步的,对于“一”字型和“L”型在视差精化中的遮挡处理部分略有不同。对于“一”字型,在遮挡部分填充时采用以该无效点向左向右寻找第一个有效值,以其16邻域的均值中较小的进行填充;而对于“L”型,对于大基线的遮挡部分直接使用小基线的视差值的四倍效果更佳。
以上所述,仅为本发明的较佳实施例而已,并非对本发明作任何形式上的限制,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,依据本发明的技术实质对以上实施例所作的任何非本质修改或等同变化,均仍属于本发明权利要求书的保护范围内。

Claims (10)

1.一种基于大小双基线的三目相机深度图像处理方法,其特征在于,包括以下步骤:
步骤一、左中右三个视点同一型号的相机对同一场景进行同时拍摄,其中左中为小基线相机组,左右为大基线相机组,对所拍摄的图片进行校正,获得校正后的左中右不同视点的图片;
步骤二、对左中小基线相机组得到的图片进行立体匹配,具体操作为对于左相机拍摄的图像中的点p,在D_MAX_S内计算匹配代价值,并进行后续一系列的代价聚合、视差计算以及视差精化处理,得到初始视差d;
步骤三、对左右大基线相机组得到的图片进行立体匹配,因为大小基线之比为4:1,视差与基线为正比关系,所以大基线中的视差应是小基线的四倍,对于点p,以小基线得到的初始视差d的四倍作为视差基准值D,以该基准值左右扩展一个小范围视差搜索窗口进行匹配代价的计算以及后续的代价聚合、视差计算和视差精化处理;
步骤四、在大基线的视差精化处理中基于三幅图片进行遮挡处理,具体为大基线中的遮挡区域利用小基线的有小视察值填充,最终得到左右两台相机大基线的高精度视差图。
2.根据权利要求1所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:
步骤一中,采用“一”字型三目相机模型,其中“一”字型为三台相机水平摆放,左中为小基线相机组,左右为大基线相机组。
3.根据权利要求1所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:
步骤二中,令视差搜索范围为(0,D_MAX_S),其中D_MAX_S为视差搜索最大值,采用census变化计算初始匹配代价,通过SGM算法进行代价聚合,通过WTA策略得到视差值,再进行视差值精化(后处理),该过程包括:唯一性检测,左右一致性检测,亚像素精化,连通域检测,遮挡填充方法。
4.根据权利要求1所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:
步骤三中,进行左右大基线相机组视差图计算,对于当前计算点p,查找到左中小基线相机组得到的视差图中点p的视差值d,以d的四倍为基准左右开辟d_range的视差搜索范围,从而将大基线的视差搜索范围从(0,D_MAX_L)缩减到(4*d-d_range,4*d+d_range),其中之所以要将d乘以4之后再作为大基线相机组视差值的基准是因为大小基线之比为4:1,在这里d扩大的倍数应与大小基线的比值对应,d_range是设定的扩展搜索范围,同时应控制4*d-d_range>=0,4*d+d_range<=D_MAX_L。
5.根据权利要求4所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:在(4*d-d_range,4*d+d_range)范围内进行匹配代价值计算,代价聚合,视差值计算以及视差精化处理。
6.一种基于大小双基线的三目相机深度图像处理方法,其特征在于,包括以下步骤:
步骤一、左上左右三个视点同一型号的相机对同一场景进行同时拍摄,其中左上左为小基线相机组,左右为大基线相机组,对所拍摄的图片进行校正,获得校正后的左上左右不同视点的图片;
步骤二、对左上左小基线相机组得到的图片进行立体匹配,具体操作为对于左相机拍摄的图像中的点p,在D_MAX_S内计算匹配代价值,并进行后续一系列的代价聚合、视差计算以及视差精化处理,得到初始视差d;
步骤三、对左右大基线相机组得到的图片进行立体匹配,因为大小基线之比为4:1,视差与基线为正比关系,所以大基线中的视差应是小基线的四倍,对于点p,以小基线得到的初始视差d的四倍作为视差基准值D,以该基准值左右扩展一个小范围视差搜索窗口进行匹配代价的计算以及后续的代价聚合、视差计算和视差精化处理;
步骤四、在大基线的视差精化处理中基于三幅图片进行遮挡处理,具体为大基线中的遮挡区域利用小基线的有小视察值填充,最终得到左右两台相机大基线的高精度视差图。
7.根据权利要求6所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:
步骤一中,采用“L”型三目相机模型,其中“L”型为三台相机呈L字母状摆放,左上与左相机为小基线相机组,左右为大基线相机组。
8.根据权利要求6所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:
步骤二中,令视差搜索范围为(0,D_MAX_S),其中D_MAX_S为视差搜索最大值,采用census变化计算初始匹配代价,通过SGM算法进行代价聚合,通过WTA策略得到视差值,再进行视差值精化(后处理),该过程包括:唯一性检测,左右一致性检测,亚像素精化,连通域检测,遮挡填充方法。
9.根据权利要求6所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:
步骤三中,进行左右大基线相机组视差图计算,对于当前计算点p,查找到左上左小基线相机组得到的视差图中点p的视差值d,以d的四倍为基准左右开辟d_range的视差搜索范围,从而将大基线的视差搜索范围从(0,D_MAX_L)缩减到(4*d-d_range,4*d+d_range),其中之所以要将d乘以4之后再作为大基线相机组视差值的基准是因为大小基线之比为4:1,在这里d扩大的倍数应与大小基线的比值对应,d_range是设定的扩展搜索范围,同时应控制4*d-d_range>=0,4*d+d_range<=D_MAX_L。
10.根据权利要求9所述的基于大小双基线的三目相机深度图像处理方法,其特征在于:在(4*d-d_range,4*d+d_range)范围内进行匹配代价值计算,代价聚合,视差值计算以及视差精化处理。
CN201910432950.4A 2019-05-23 2019-05-23 一种基于大小双基线的三目相机深度图像处理方法 Active CN110148168B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910432950.4A CN110148168B (zh) 2019-05-23 2019-05-23 一种基于大小双基线的三目相机深度图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910432950.4A CN110148168B (zh) 2019-05-23 2019-05-23 一种基于大小双基线的三目相机深度图像处理方法

Publications (2)

Publication Number Publication Date
CN110148168A true CN110148168A (zh) 2019-08-20
CN110148168B CN110148168B (zh) 2023-03-24

Family

ID=67592802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910432950.4A Active CN110148168B (zh) 2019-05-23 2019-05-23 一种基于大小双基线的三目相机深度图像处理方法

Country Status (1)

Country Link
CN (1) CN110148168B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111292367A (zh) * 2020-02-18 2020-06-16 青岛联合创智科技有限公司 一种基线可变的双目相机深度图生成方法
WO2021174600A1 (zh) * 2020-03-05 2021-09-10 中国科学院上海微系统与信息技术研究所 一种多目立体相机的校准及深度图像处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170111630A1 (en) * 2014-01-29 2017-04-20 Google Inc. Depth-Assisted Focus in Multi-Camera Systems
CN106952304A (zh) * 2017-03-22 2017-07-14 南京大学 一种利用视频序列帧间相关性的深度图像计算方法
CN108682026A (zh) * 2018-03-22 2018-10-19 辽宁工业大学 一种基于多匹配基元融合的双目视觉立体匹配方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170111630A1 (en) * 2014-01-29 2017-04-20 Google Inc. Depth-Assisted Focus in Multi-Camera Systems
CN106952304A (zh) * 2017-03-22 2017-07-14 南京大学 一种利用视频序列帧间相关性的深度图像计算方法
CN108682026A (zh) * 2018-03-22 2018-10-19 辽宁工业大学 一种基于多匹配基元融合的双目视觉立体匹配方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111292367A (zh) * 2020-02-18 2020-06-16 青岛联合创智科技有限公司 一种基线可变的双目相机深度图生成方法
CN111292367B (zh) * 2020-02-18 2023-04-07 青岛联合创智科技有限公司 一种基线可变的双目相机深度图生成方法
WO2021174600A1 (zh) * 2020-03-05 2021-09-10 中国科学院上海微系统与信息技术研究所 一种多目立体相机的校准及深度图像处理方法

Also Published As

Publication number Publication date
CN110148168B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN107833270A (zh) 基于深度相机的实时物体三维重建方法
Zhang et al. Stereo matching with segmentation-based cooperation
CN108520554A (zh) 一种基于orb-slam2的双目三维稠密建图方法
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN102074014A (zh) 一种利用基于图论的图像分割算法的立体匹配方法
CN105404888A (zh) 结合颜色和深度信息的显著性目标检测方法
CN105374039B (zh) 基于轮廓锐度的单目图像深度信息估计方法
CN102074020A (zh) 对视频进行多体深度恢复和分割的方法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN103761765A (zh) 基于映射边界优化的三维物体模型纹理映射算法
CN103136775A (zh) 基于局部约束重建的kinect深度图空洞填充方法
CN106408596A (zh) 基于边缘的局部立体匹配方法
CN102799646A (zh) 一种面向多视点视频的语义对象分割方法
CN110148168A (zh) 一种基于大小双基线的三目相机深度图像处理方法
CN116449384A (zh) 基于固态激光雷达的雷达惯性紧耦合定位建图方法
CN103761766A (zh) 基于色调映射和图像平滑的三维物体模型纹理映射算法
CN108830895A (zh) 一种立体匹配中基于分割的局部扩张移动方法
Hung et al. Multipass hierarchical stereo matching for generation of digital terrain models from aerial images
CN107122782B (zh) 一种均衡的半密集立体匹配方法
CN107274448B (zh) 一种基于水平树结构的可变权重代价聚合立体匹配算法
CN105631868A (zh) 一种基于图像分类的深度信息提取方法
CN111197976A (zh) 一种顾及弱纹理区域多阶段匹配传播的三维重建方法
CN108921852A (zh) 基于视差与平面拟合的双分支室外非结构化地形分割网络
Matsuda et al. Direct shape carving: Smooth 3D points and normals for surface reconstruction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant