CN110060283A - 一种多测度半全局密集匹配算法 - Google Patents

一种多测度半全局密集匹配算法 Download PDF

Info

Publication number
CN110060283A
CN110060283A CN201910308582.2A CN201910308582A CN110060283A CN 110060283 A CN110060283 A CN 110060283A CN 201910308582 A CN201910308582 A CN 201910308582A CN 110060283 A CN110060283 A CN 110060283A
Authority
CN
China
Prior art keywords
pixel
parallax
pyramid
image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910308582.2A
Other languages
English (en)
Other versions
CN110060283B (zh
Inventor
陶鹏杰
段延松
刘昆波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910308582.2A priority Critical patent/CN110060283B/zh
Publication of CN110060283A publication Critical patent/CN110060283A/zh
Application granted granted Critical
Publication of CN110060283B publication Critical patent/CN110060283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种多测度半全局密集匹配算法,先利用Census相似性测度在金字塔顶层计算匹配代价,生成并优化视差图,然后按照金字塔策略逐级将视差图结果向下传递,作为下一级金字塔互信息匹配代价计算的视差图初始值,最终得到子像素级精度的密集匹配结果。本方法针对经典半全局匹配算法在效率和稳健度等方面的不足,在惩罚系数、相似性测度的选择、视差范围的调整等方面进行改进和扩展,具有稳健可靠、高效、匹配视差图精细且保边缘的特点。同时,本方法通过对影像数据集进行辐射处理提高匹配的稳健性,并利用自适应视差范围动态调整,降低匹配过程中的计算内存,并提升匹配的效率。

Description

一种多测度半全局密集匹配算法
技术领域
本发明属于影像匹配领域,涉及一种改进的半全局逐像素影像密集匹配方法,具体涉及一种多测度半全局密集匹配算法。
背景技术
影像密集匹配是利用已知定向参数(包括影像内方位元素和外方位元素)的多视影像,通过匹配获取摄影对象的三维密集点云或逐像素视差图(或深度图)的方法。它是基于影像的三维表面重建的一个至关重要的步骤,是摄影测量中数字表面模型(DigitalSurface Model,DSM)与数字高程模型(Digital Elevation Model,DEM)自动生成中的关键技术,也是计算机视觉领域三维建模不可或缺的一环。
一般而言,从影像中恢复空间物体的三维形状类似于人眼的立体视觉,至少需要两张从不同方位对着同一场景拍摄的影像,使得摄影空间中的同一个点在两张不同影像上的像点(同名点)之间存在视差。因此,基于影像恢复空间三维形状的关键在于如何在不同影像之间准确可靠地确定像素间的对应关系(同名点)。
局部匹配方法在影像上选择一个合适的局部窗口,独立地匹配每个像素的同名像点,相关窗口的大小直接影响结果的好坏,然而难以确定合适的相关窗口。相关窗口过小时则缺少足够的纹理信息来消除匹配的不确定性,而相关窗口过大则会导致图像边缘上出现视差扭曲或者三维形状的扭曲,因此,某些根据局部纹理等信息自适应调节匹配窗口大小的方法随之产生。虽然这类自适应窗口的方法虽然都能够在一定程度上抑制窗口内出现视差不连续性,但是由于窗口形状的调整方向只有±x和±y四个方向,不能完全回避窗口中的视差不连续边缘,而且这类方法没有考虑周围邻近点之间的相关性,会导致一定的误匹配。
全局匹配方法通过考虑相邻像素的约束,可以更好地顾及邻近同名点之间的相关性。这类方法一般会用数据项表示影像相似性测度构成的匹配代价,以平滑项表示相邻像素间的约束代价,然后构建一个包含数据项和平滑项的能量方程,最后使用能量最小化的方法整体计算全局最化解,如半全局匹配算法(SGM)是全局匹配方法中优秀的代表。虽然全局方法相对于局部匹配方法可取得更加稳健的匹配结果,但是也存在一些缺点:(1)需要更多的计算时间;(2)耗费更大的计算机内存空间;(3)大多采用单一相似测度作为匹配代价,而每种相似性测度都有其劣势,如Census计算量大、效率低,互信息则需要先验视差初值;(4)在整个匹配过程中,全局算法的视差调整范围是固定的,因此会降低算法的鲁棒性,产生误匹配,还会浪费电脑计算内存,降低处理效率。
另外,需要指出的是,现有密集匹配的方法大多没有提及辐射处理问题。但是实际应用中,由于影像的成像过程受到天气条件、大气条件和相机响应等因素的影响,拍摄的影像一般存在一定程度的辐射畸变,这将对影像匹配造成不利的影响。
针对经典半全局匹配方法的缺点,本发明所提的多测度半全局匹配算法对经典的半全局匹配算法在惩罚系数的选择、相似性测度的选择、视差范围的调整、匹配置信度的计算和影像的辐射质量改善等方面进行改进和扩展,提高匹配的质量和速度。
发明内容
本发明主要解决经典半全局匹配算法在效率和稳健度等方面的不足的问题,提出了一种混合使用Census和互信息两种相似性测度,采用金字塔影像策略进行匹配的多测度半全局密集匹配方法,可以有效解决计算互信息需要先验的视差初值和误匹配的问题,同时这种方法具有计算内存占用率小、处理效率高以及匹配精度高的特点,并通过辐射处理提高匹配的稳健性。
本发明的上述技术问题主要是通过下述技术方案得以解决:一种多测度半全局密集匹配算法,该方法利用Census相似性测度在金字塔顶层计算匹配代价,生成并优化视差图,然后按照金字塔策略逐级将视差图结果向下传递,作为下一级金字塔互信息匹配代价计算的视差图初始值,最终得到子像素级精度的密集匹配结果。其核心过程包括以下步骤:
步骤1,采用自动色阶方法对原始影像数据集进行增强,并生成核线影像。
步骤2,创建核线影像的影像金字塔,本方法采用2×2格网进行逐级金字塔创建,直到顶层金字塔影像长宽的最小值不小于512个像素。将底层影像到顶层影像依次定义为Pyr0,Pyr1,…,PyrN
步骤3,从PyrN级金字塔开始,选择Census作为相似性测度,逐像素计算在视差值为d时的匹配代价C(p,d)。其中p为某像素,d为视差搜索范围drange(初始值为定值)内某值。
步骤4,计算像素p在16个方向(如图4,5*5窗口中周围像素与中心像素的连线构成的16个方向)的路径代价Lr(p,d),并累积得到累积代价S(p,d)。
步骤5,对于计算获得的累积代价S(p,d),采用WTA算法计算像素p的最优视差d。即取S(p,d)的最小值mind S(p,d)处对应的视差d作为该像素的视差结果。此时获得的视差d的精度是像素级别的。
步骤6,为提高匹配精度,根据视差d,d-1和d+1处的累积代价S(p,d),S(p,d-1)和S(p,d+1)进行二次抛物线(设抛物线函数为y=ax2+bx+c)的拟合,计算最优子像素级别视差。
步骤7,利用图像分割的方法,依据相邻像素的视差变化值不大于1的原则,对视差图进行分割,对于分割结果中面积小于400像素的分割区域则认为是误匹配而将其整体剔除。
步骤8,动态调整下一级金字塔影像每个像素的视差搜索范围drange
步骤9,重复步骤3到步骤8,直到匹配到Pyr0层金字塔。需要注意的时,从第PyrN-1层匹配开始,相似性测度改为互信息,其视差初始值为上一级视差图结果。
在上述算法步骤4中,路径代价的定义如下:
其中:
P为待匹配像素;
r为路径方向;
P1和P2为惩罚系数,在本方法中分别定义为150以及r方向上梯度的倒数;
Lr(p-r,d)为在方向r上像素p的前一个像素的路径代价。
在上述算法步骤4中,累积代价定义为:
其中:
Lr(p,d)为r方向上的路径代价。
在上述算法步骤8中,视差动态调整计算方法为:
具体计算方法为:
(1)对于第k级金字塔影像(原始影像为第0级)上像素pk,首先计算其在第k-1级金字塔影像上的像素点pk-1,并根据pk-1的像素坐标从第k-1级影像的视差图上内插视差初值为dk(已缩放倍数l,l为金字塔缩放比例,本发明默认设置为2)并统计3×3邻域窗口内的最大视差变化值△d(该值大于1时认为地形变化较大);
(2)若dk为有效值,设无效视差为dnull(本方法将视差值放大24=16倍并使用短整型short变量保存,故dnull取值为-32768),当△d<1时,视差范围为以dk中心,上下各扩展dextension个像素,即[dk-dextension,dk+dextension];当△d≥1时,视差范围为上述基础上再扩△d×l个像素,即[dk-dextension-△d*l,dk+dextension+△d*l]。dextension按金字塔级数逐级下降,第0级为4,逐级向上增加2;
(3)若dk为无效值,为了防止由于没有视差搜索范围而导致无效区随金字塔级数的下降而逐渐扩大,统计pk-1更大邻域窗口内(13×13)视差最大值、最小值和有效视差数,分别为d′max、d′min与nv。当nv大于设定阈值(如20)时,视差范围为[d′min-4,d′max+4];否则像素pk视差直接设置为无效值,不进行匹配。
本发明具有如下优点:充分考虑了已有全局匹配算法在效率和稳健度等方面的不足,在惩罚系数、相似性测度的选择、视差范围的调整等方面进行改进和扩展,具有稳健可靠、高效、匹配视差图精细且保边缘的特点。同时,本方法通过对影像数据集进行辐射处理提高匹配的稳健性,并利用自适应视差范围动态调整降低匹配过程中的计算内存,提升匹配的效率。
附图说明
图1为本发明的总体流程图;
图2为金字塔策略中相似性测度的选择;
图3为路径代价计算示意图;
图4为16方向示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
本发明提供的技术方案是:一种组合使用Census和互信息两种相似性测度,采用金字塔影像策略进行匹配的多测度半全局密集匹配方法。如图1所示,包括以下步骤:
步骤1,采用自动色阶方法对原始影像进行增强,并生成核线影像。
步骤2,创建影像金字塔,本方法采用2×2格网进行逐级金字塔创建,直到顶层金字塔影像长宽的最小值不小于512个像素。将底层影像到顶层影像依次定义为Pyr0,Pyr1,…,PyrN
步骤3,从PyrN级金字塔开始,选择Census作为相似性测度,逐像素计算在视差值为d时的匹配代价C(p,d),并将其线性映射至[0,211)的取值区间内。
步骤4,按图3方式,计算像素p在如图3中16个方向的路径代价Lr(p,d),并累积得到累积代价S(p,d)。
步骤5,对于计算获得的累积代价S(p,d),采用WTA算法计算像素p的最优视差d。即取S(p,d)的最小值mind S(p,d)处对应的视差d作为该像素的像素级别视差结果。
步骤6,为提高匹配精度,根据视差d,d-1和d+1处的累积代价S(p,d),S(p,d-1)和S(p,d+1)进行二次抛物线的拟合,计算最优子像素级别视差。
步骤7,利用图像分割的方法,依据相邻像素的视差变化值不大于1的原则,对视差图进行分割,对于分割结果中较小的分割区域(面积小于400像素)则认为是误匹配而将其整体剔除。
步骤8,动态调整下一级金字塔影像每个像素的视差搜索范围drange
步骤9,重复步骤3到步骤8,直到匹配到Pyr0层金字塔。并如图2所示,从第PyrN-1层匹配开始,相似性测度改为互信息,其视差初始值为上一级视差图结果。
本发明提出的一种多测度半全局密集匹配算法,根据匹配初值动态调整各层金字塔影像匹配的视差搜索范围,同时组合使用Census和互信息两种相似性测度,融合Census和互信息在稳健性、保边缘性、抗噪性等方面的优势,提高密集匹配速度的同时,提升匹配稳健度和效果。Census与互信息两种相似性测度组合使用和金字塔影像策略中视差搜索范围动态调整是本发明所述多测度半全局密集匹配方法的关键技术。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种多测度半全局密集匹配算法,其特征在于,包括以下步骤:
步骤1,对原始影像进行增强,并生成核线影像;
步骤2,创建核线影像的影像金字塔,将底层影像到顶层影像依次定义为Pyr0,Pyr1,…,PyrN
步骤3,从PyrN级金字塔开始,选择Census作为相似性测度,逐像素计算在视差值为d时的匹配代价C(p,d),其中p为某像素,d为视差搜索范围drange内某值;
步骤4,计算像素p在多个方向的路径代价Lr(p,d),并累积得到累积代价S(p,d);
步骤5,对于计算获得的累积代价S(p,d),采用WTA算法计算像素p的最优视差d,即取S(p,d)的最小值mind S(p,d)处对应的视差d作为该像素的视差结果;
步骤6,为提高匹配精度,根据视差d,d-1和d+1处的累积代价S(p,d),S(p,d-1)和S(p,d+1)进行二次抛物线的拟合,计算最优子像素级别视差;
步骤7,利用图像分割的方法,依据相邻像素的视差变化值不大于某一阈值的原则,对视差图进行分割,对于分割结果面积小于某阈值的分割区域,则认为是误匹配而将其整体剔除;
步骤8,动态调整下一级金字塔影像每个像素的视差搜索范围drange
步骤9,从第PyrN-1层匹配开始,将相似性测度改为互信息,其视差初始值为上一级视差图结果,重复步骤3到步骤8,直到匹配到Pyr0层金字塔,匹配结束。
2.如权利要求1所述的一种多测度半全局密集匹配算法,其特征在于:步骤1中采用自动色阶方法对原始影像数据集进行增强。
3.如权利要求1所述的一种多测度半全局密集匹配算法,其特征在于:步骤2中采用2×2格网进行逐级金字塔创建,直到顶层金字塔影像长宽的最小值不小于512个像素。
4.如权利要求1所述的一种多测度半全局密集匹配算法,其特征在于:步骤4中计算像素p在16个方向的路径代价Lr(p,d),所述16个方向由5*5窗口中周围像素与中心像素的连线构成,其中路径代价的定义如下:
其中:
P为待匹配像素;
r为路径方向;
P1和P2为惩罚系数,分别定义为150以及r方向上梯度的倒数;
Lr(p-r,d)为在方向r上像素p的前一个像素的路径代价。
5.如权利要求1所述的一种多测度半全局密集匹配算法,其特征在于:步骤4中累积代价定义为:
其中:
Lr(p,d)为r方向上的路径代价。
6.如权利要求1所述的一种多测度半全局密集匹配算法,其特征在于:步骤8中视差动态调整计算方法为:
具体计算方法为:
(1)对于第k级金字塔影像(原始影像为第0级)上像素pk,首先计算其在第k-1级金字塔影像上的像素点pk-1,并根据pk-1的像素坐标从第k-1级影像的视差图上内插视差初值为dk,已缩放倍数l,l为金字塔缩放比例,并统计3×3邻域窗口内的最大视差变化值△d;
(2)若dk为有效值,设无效视差为dnull,当△d<1时,视差范围为以dk中心,上下各扩展dextension个像素,即[dk-dextension,dk+dextension];当△d≥1时,视差范围为上述基础上再扩△d×l个像素,即[dk-dextension-△d*l,dk+dextension+△d*l],dextension按金字塔级数逐级下降,第0级为4,逐级向上增加2;
(3)若dk为无效值,为了防止由于没有视差搜索范围而导致无效区随金字塔级数的下降而逐渐扩大,统计pk-1更大邻域窗口内视差最大值、最小值和有效视差数,分别为d′max、d′min与nv;当nv大于设定阈值时,视差范围为[d′min-4,d′max+4];否则像素pk视差直接设置为无效值,不进行匹配。
CN201910308582.2A 2019-04-17 2019-04-17 一种多测度半全局密集匹配方法 Active CN110060283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910308582.2A CN110060283B (zh) 2019-04-17 2019-04-17 一种多测度半全局密集匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910308582.2A CN110060283B (zh) 2019-04-17 2019-04-17 一种多测度半全局密集匹配方法

Publications (2)

Publication Number Publication Date
CN110060283A true CN110060283A (zh) 2019-07-26
CN110060283B CN110060283B (zh) 2020-10-30

Family

ID=67317681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910308582.2A Active CN110060283B (zh) 2019-04-17 2019-04-17 一种多测度半全局密集匹配方法

Country Status (1)

Country Link
CN (1) CN110060283B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508068A (zh) * 2020-04-20 2020-08-07 华中科技大学 一种应用于双目内窥镜图像的三维重建方法及系统
WO2021114871A1 (zh) * 2019-12-13 2021-06-17 上海肇观电子科技有限公司 视差确定方法、电子设备及计算机可读存储介质
US11127115B2 (en) 2019-12-13 2021-09-21 NextVPU (Shanghai) Co., Ltd. Determination of disparity
CN114723967A (zh) * 2022-03-10 2022-07-08 北京的卢深视科技有限公司 视差图优化方法、人脸识别方法、装置、设备及存储介质
WO2024066802A1 (zh) * 2022-09-26 2024-04-04 神顶科技(南京)有限公司 一种双目视觉系统的运行方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100039504A1 (en) * 2008-08-12 2010-02-18 Sony Corporation Three-dimensional image correction device, three-dimensional image correction method, three-dimensional image display device, three-dimensional image reproduction device, three-dimensional image provision system, program, and recording medium
CN102831601A (zh) * 2012-07-26 2012-12-19 中北大学 基于联合相似性测度和自适应支持权重的立体匹配方法
US20130114689A1 (en) * 2011-11-03 2013-05-09 Industrial Technology Research Institute Adaptive search range method for motion estimation and disparity estimation
CN103761739A (zh) * 2014-01-23 2014-04-30 武汉大学 一种基于半全局能量优化的影像配准方法
CN104820991A (zh) * 2015-05-15 2015-08-05 武汉大学 一种基于代价矩阵的多重软约束立体匹配方法
CN104835165A (zh) * 2015-05-12 2015-08-12 努比亚技术有限公司 图像处理方法及装置
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
CN105160702A (zh) * 2015-08-20 2015-12-16 武汉大学 基于LiDAR点云辅助的立体影像密集匹配方法及系统
CN105205808A (zh) * 2015-08-20 2015-12-30 武汉大学 基于多特征多约束的多视影像密集匹配融合方法及系统
CN105225233A (zh) * 2015-09-15 2016-01-06 武汉大学 一种基于两类膨胀的立体影像密集匹配方法及系统
CN105466399A (zh) * 2016-01-11 2016-04-06 中测新图(北京)遥感技术有限责任公司 快速半全局密集匹配方法和装置
CN106023147A (zh) * 2016-05-06 2016-10-12 西安航天天绘数据技术有限公司 一种基于gpu的线阵遥感影像dsm快速提取方法
CN106355608A (zh) * 2016-09-09 2017-01-25 南京信息工程大学 基于可变权重代价计算与S‑census变换的立体匹配方法
CN106530337A (zh) * 2016-10-31 2017-03-22 武汉市工程科学技术研究院 基于图像灰度引导的非局部立体像对密集匹配方法
CN106780712A (zh) * 2016-10-28 2017-05-31 武汉市工程科学技术研究院 联合激光扫描和影像匹配的三维点云生成方法
CN107170000A (zh) * 2017-04-18 2017-09-15 武汉市工程科学技术研究院 基于全局块优化的立体影像密集匹配方法
CN107506782A (zh) * 2017-07-06 2017-12-22 武汉市工程科学技术研究院 基于置信权重双边滤波的密集匹配方法
CN107578429A (zh) * 2017-07-14 2018-01-12 武汉市工程科学技术研究院 基于动态规划和全局代价累积路径的立体影像密集匹配方法

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100039504A1 (en) * 2008-08-12 2010-02-18 Sony Corporation Three-dimensional image correction device, three-dimensional image correction method, three-dimensional image display device, three-dimensional image reproduction device, three-dimensional image provision system, program, and recording medium
US20130114689A1 (en) * 2011-11-03 2013-05-09 Industrial Technology Research Institute Adaptive search range method for motion estimation and disparity estimation
CN102831601A (zh) * 2012-07-26 2012-12-19 中北大学 基于联合相似性测度和自适应支持权重的立体匹配方法
CN103761739A (zh) * 2014-01-23 2014-04-30 武汉大学 一种基于半全局能量优化的影像配准方法
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
CN104835165A (zh) * 2015-05-12 2015-08-12 努比亚技术有限公司 图像处理方法及装置
CN104820991A (zh) * 2015-05-15 2015-08-05 武汉大学 一种基于代价矩阵的多重软约束立体匹配方法
CN105205808A (zh) * 2015-08-20 2015-12-30 武汉大学 基于多特征多约束的多视影像密集匹配融合方法及系统
CN105160702A (zh) * 2015-08-20 2015-12-16 武汉大学 基于LiDAR点云辅助的立体影像密集匹配方法及系统
CN105225233A (zh) * 2015-09-15 2016-01-06 武汉大学 一种基于两类膨胀的立体影像密集匹配方法及系统
CN105466399A (zh) * 2016-01-11 2016-04-06 中测新图(北京)遥感技术有限责任公司 快速半全局密集匹配方法和装置
CN106023147A (zh) * 2016-05-06 2016-10-12 西安航天天绘数据技术有限公司 一种基于gpu的线阵遥感影像dsm快速提取方法
CN106355608A (zh) * 2016-09-09 2017-01-25 南京信息工程大学 基于可变权重代价计算与S‑census变换的立体匹配方法
CN106780712A (zh) * 2016-10-28 2017-05-31 武汉市工程科学技术研究院 联合激光扫描和影像匹配的三维点云生成方法
CN106530337A (zh) * 2016-10-31 2017-03-22 武汉市工程科学技术研究院 基于图像灰度引导的非局部立体像对密集匹配方法
CN107170000A (zh) * 2017-04-18 2017-09-15 武汉市工程科学技术研究院 基于全局块优化的立体影像密集匹配方法
CN107506782A (zh) * 2017-07-06 2017-12-22 武汉市工程科学技术研究院 基于置信权重双边滤波的密集匹配方法
CN107578429A (zh) * 2017-07-14 2018-01-12 武汉市工程科学技术研究院 基于动态规划和全局代价累积路径的立体影像密集匹配方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHAN-OH PARK 等: "Dynamic Search Range using Sparse Disparity Map for Fast Stereo Matching", 《IEEE INTERNATIONAL SYMPOSIUM ON BROADBAND MULTIMEDIA SYSTEMS AND BROADCASTING》 *
MATHIAS ROTHERMEL 等: "SURE: PHOTOGRAMMETRIC SURFACE RECONSTRUCTION FROM IMAGERY", 《PROCEEDINGSLC3DWORKSHOP》 *
岳庆兴 等: "基于半全局优化的资源三号卫星影像DSM提取方法", 《武汉大学学报 信息科学版》 *
左志奇 等: "基于多测度半全局优化的无人机影像密集匹配算法", 《科技创新与应用》 *
张惊雷 等: "基于均值偏移和区域映射的视差图优化算法", 《计算机应用研究》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021114871A1 (zh) * 2019-12-13 2021-06-17 上海肇观电子科技有限公司 视差确定方法、电子设备及计算机可读存储介质
US11127115B2 (en) 2019-12-13 2021-09-21 NextVPU (Shanghai) Co., Ltd. Determination of disparity
CN111508068A (zh) * 2020-04-20 2020-08-07 华中科技大学 一种应用于双目内窥镜图像的三维重建方法及系统
CN114723967A (zh) * 2022-03-10 2022-07-08 北京的卢深视科技有限公司 视差图优化方法、人脸识别方法、装置、设备及存储介质
WO2024066802A1 (zh) * 2022-09-26 2024-04-04 神顶科技(南京)有限公司 一种双目视觉系统的运行方法

Also Published As

Publication number Publication date
CN110060283B (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN110060283A (zh) 一种多测度半全局密集匹配算法
CN112434709B (zh) 基于无人机实时稠密三维点云和dsm的航测方法及系统
Gallup et al. 3d reconstruction using an n-layer heightmap
CN103971408B (zh) 三维人脸模型生成系统及方法
US6862024B2 (en) Enhancing textured range images using a 2D editor
CN104820991B (zh) 一种基于代价矩阵的多重软约束立体匹配方法
CN106651897B (zh) 一种基于超像素分割的视差修正方法
US20030197806A1 (en) Single lens 3D camera
CN102496183B (zh) 基于互联网照片集的多视角立体重构方法
CN113362247A (zh) 一种激光融合多目相机的语义实景三维重建方法及系统
Hervieu et al. Stereoscopic image inpainting: distinct depth maps and images inpainting
CN113392879B (zh) 一种航空影像多视图匹配方法
CN106408596A (zh) 基于边缘的局部立体匹配方法
US6963671B2 (en) Method for determining distances to a surface from a range image
CN108681753B (zh) 一种基于语义分割及神经网络的图像立体匹配方法及系统
CN113298947A (zh) 一种基于多源数据融合的变电站三维建模方法介质及系统
CN107155100B (zh) 一种基于图像的立体匹配方法及装置
CN114463521B (zh) 一种面向空地影像数据融合的建筑目标点云快速生成方法
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法
CN116977596A (zh) 一种基于多视角图像的三维建模系统及方法
US6792205B2 (en) Method for generating a textured range image
CN109903322B (zh) 一种深度摄像头深度图像修复方法
Zhu et al. Triangulation of well-defined points as a constraint for reliable image matching
CN110942102A (zh) 一种概率松弛核线匹配方法及系统
CN107194334B (zh) 基于光流模型的视频卫星影像密集匹配方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant