CN107862742A - 一种基于多假设联合视图选择的稠密三维重建方法 - Google Patents

一种基于多假设联合视图选择的稠密三维重建方法 Download PDF

Info

Publication number
CN107862742A
CN107862742A CN201711395981.4A CN201711395981A CN107862742A CN 107862742 A CN107862742 A CN 107862742A CN 201711395981 A CN201711395981 A CN 201711395981A CN 107862742 A CN107862742 A CN 107862742A
Authority
CN
China
Prior art keywords
hypothesis
depth
pixel
image
dense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711395981.4A
Other languages
English (en)
Other versions
CN107862742B (zh
Inventor
陶文兵
徐青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201711395981.4A priority Critical patent/CN107862742B/zh
Publication of CN107862742A publication Critical patent/CN107862742A/zh
Application granted granted Critical
Publication of CN107862742B publication Critical patent/CN107862742B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多假设联合视图选择的稠密三维重建方法,属于计算机视觉领域。本发明提出了一种基于非对称棋盘网格传播和多假设联合的视图选择的快速准确稠密重建方法,本发明方法中非对称棋盘网格传播基于邻域像素点的匹配代价,使代价更小的假设能优先传播到更远的区域,提升了算法的收敛速度;进一步地,多假设联合视图选择方法采用非对称棋盘网格传播优选的多个假设,在邻域视图中构造代价矩阵,从中挖掘合适的视图聚合集合,使得聚合代价的表示与最优假设的选择更加精确;本发明方法不仅能在充分利用并行计算能力的前提下使算法更快地收敛,而且能够获得更加精确鲁棒的稠密重建结果。

Description

一种基于多假设联合视图选择的稠密三维重建方法
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种基于多假设联合视图选择的稠密三维重建方法。
背景技术
面片匹配的主要思想是随机地初始化一个对应场,然后迭代地将好的对应关系在邻域像素之间进行传播,为了得到更为丰富的传播假设,在传播之后会对现有假设进行随机扰动以增加假设的多样性。其首先被Bleyer等人引入到立体视觉中,并在随后得到了广泛的推广。基于面片匹配的稠密三维重建方法一般可以分为3个阶段:视图选择,传播方案和深度融合。
在视图选择阶段,Kang等人采用启发式的视图选择方法,其从所有的匹配代价中选择最佳的50%的视图集合用来进行代价聚合;Galliani等人将其调整为选择固定的K幅视图集合用以代价聚合。然而无论怎样事先划定阈值都无法达到令人满意的结果。Goesele等人首先通过已知的稀疏三维点构造全局视图选择集合,然后在归一化交叉相关和对极几何的约束下,进一步选择有效的局部视图集合。该方法严重地依赖于已知的稀疏三维点,并且不适合于进行并行深度估计。Zheng等人通过构造概率图模型,采用变分推断来选择合适的视图,等人进一步引入法向估计和其他几何先验来约束概率图模型以此进行更精确的视图选择推断。然而其方法不适合大规模的GPU并行计算。
在传播方案上,基于种子-扩展的方法通过扩展可靠的深度值估计到领域像素到其邻域上来产生新的生长种子。尽管该方法能够避免无纹理区域的深度估计而节省一些计算量,然而该扩展方案由于其现有种子的数量和位置是不规则的,所以其难以利用GPU的并行计算能力。在利用GPU的并行计算能力上,Bailer等人采用从左上向右下的传播方式,Bleyer等人采用依次向右的传播方案。为了满足概率图模型渐进推断的能力,Zheng等人和等人在奇数次执行向上/向下的传播,在偶数次进行向右/向左的传播,交替进行到一定次数,然而这些传播方案在本质上都是串行的。Galliani等人提出了对称式棋盘网格传播方式,将一幅图像的所有像素划分为类似于棋盘网格式红黑相间的模式。在一次迭代中先并行地利用红色区域的假设对黑色区域进行估计,再并行地利用黑色区域的假设对红色区域进行估计;按此模式迭代一定次数。尽管该方法能充分利用GPU的并行计算能力,然而由于其采用的对称式策略,使得有效的假设不能得到更为有效的传播。
深度图融合将所有独自估计的深度图合并成一个点云模型,以此利用左右约束来减少错误的深度估计。Jancoseck和Pajdla通过平面扫描来计算各自参考图像的深度图,然后通过s-t图形式的能量函数来优化表面重建结果,实现最大程度无纹理区域的估计。然而其计算效率低,并且是面向最后的表面重建的,所以在模型精细上并不是很理想。Shen通过邻域深度图测试来进行深度图的融合。对于当前视图的每一个像素,将其反向投影到三维空间中,然后重投影到邻域视图的二维图像坐标系中,通过一致性校验来减少深度估计中的冗余性和野值。Galliani等人直接利用估计的深度与法向来融合深度值。等人提出基于图模型的深度与法向的过滤和融合。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于多假设联合视图选择的稠密三维重建方法,其目的在于本发明方法基于非对称棋盘网格传播和多假设联合的视图选择的快速准确稠密重建方法,由此充分利用并行计算能力的前提下使算法更快地收敛,而且能够获得更加精确鲁棒的稠密重建结果。
为实现上述目的,本发明提供了一种基于多假设联合视图选择的稠密三维重建方法,所述方法包括:
(1)在校正的图像集中选定一幅图像作为参考图像,其他图像则作为源图像;对参考图像进行随机初始化;
(2)将当前参考图像的所有像素划分为红黑相间的棋盘网格模式,对于处于黑色格子中的像素X,以X为中心从红色格子中划定多块近距离邻域区域和多块远距离邻域区域;计算每个区域内所有像素的假设的初始聚合匹配代价,每个区域都选出初始聚合匹配代价最小的假设作为像素X的候选假设;
(3)为像素X构造匹配代价矩阵T:
其中,K表示候选假设的数量,N表示源图像的数量;mKN表示第K个候选假设相对于第N个源图像的匹配代价;
(4)在矩阵T中按列选取该列中所有匹配代价和匹配代价阈值对比,若该列中有n个小于匹配代价阈值的匹配代价,则矩阵T保留该列,否则矩阵T剔除该列;其中,n的取值范围为2-3,优选取值为2;
(5)为矩阵T中每个列生成一个对应的权重,在矩阵T中按行选取该行的所有匹配代价,根据该行各个匹配代价所对应的权重计算该行的权重聚合匹配代价,对比矩阵T所有行的权重聚合匹配代价,选取最小的权重聚合匹配代价对应的假设作为像素X的假设;
(6)将棋盘网格模式中黑色和红色对换,重复步骤(2)~(5),得到参考图像中所有像素的假设;
(7)重复迭代步骤(2)~(6),使参考图像中所有像素的假设最终收敛,再由参考图像中所有像素的假设中的深度构建参考图像的深度图;
(8)从校正的图像集中选定另一幅图像,重复步骤(1)~(7),直到得到所述图像集中所有图像的深度图;将所有深度图融合得到稠密三维模型。
进一步地,所述步骤(1)中校正的图像集具体为待处理图像集,而且图像集中所有图像的相机拍摄姿态都已知。
进一步地,所述步骤(1)中对参考图像进行随机初始化具体为:
当前参考图像中每个像素生成一个随机的深度和法向,该像素的深度和法向的组合即该像素的假设。
进一步地,所述步骤(2)中多块近距离邻域区域在当前参考图像中以像素X为中心对称分布;多块远距离邻域区域在当前参考图像中以像素X为中心对称分布;近距离邻域区域和像素X之间的距离小于远距离邻域区域和像素X之间的距离。
进一步地,所述步骤(2)中假设的初始聚合匹配代价具体为:
一个假设对应一幅源图像的匹配代价为mij,其中,i代表第i个假设,j代表第j幅源图像;对每个假设对应的匹配代价进行由大到小的排序,选取后一半匹配代价的均值作为该假设的初始聚合匹配代价。
进一步地,所述步骤(4)中匹配代价阈值为:
其中,t为当前迭代次数,为初始匹配代价阈值,α为设定带宽,e为自然对数;其中,的取值范围为0.75-0.85,优选取值0.8。
进一步地,所述步骤(5)中权重聚合匹配代价的计算具体为:
先为矩阵T中每列生成相应的权重:
其中,式中,β为设定带宽;第i个假设对应第j幅源图像的匹配代价为mij;其中,β的取值范围为0.3-0.6,优选取值0.3;
再计算矩阵T中每行的权重聚合匹配代价:
最后选择最小的权重聚合匹配代价对应的假设作为像素X的假设。
进一步地,所述步骤(8)中将所有深度图融合得到稠密三维模型具体为:
依次将每幅深度图的深度投影到邻域图像中,法向旋转变换到相应的邻域图像中,若该深度图中一个像素在邻域图像投影的深度与邻域图像对应像素估计的深度差异不大于深度阈值τd,且旋转变换后的法向与邻域图像对应像素估计的法向夹角不大于角度阈值τn,则该深度图的深度与法向是一致的;若深度与法向一致的深度图数量大于2,则将深度与法向一致的深度图中对应像素的深度投影到公共坐标系下,得到各像素的空间三维点,并对所述空间三维点进行均值处理得到一个最终的空间三维点,对每幅深度图进行以上相同的处理生成最终的稠密三维模型;其中深度阈值τd的取值范围为0.2-0.4,优选取值为0.3;角度阈值τn的取值范围为25-35,优选取值为30。
进一步地,采用GPU的并行计算对参考图像中所有像素同时执行步骤(2)~(5)。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下技术特征及有益效果:
(1)本发明方法采用棋盘网格传播方式能最大程度地利用GPU的并行计算能力,然而其传播范围受限,因此本发明提出非对称棋盘网格传播方式来使潜在可能的正确的假设能得到更远有效的传播;
(2)本发明方法在非对称棋盘网格传播的基础上,提出通过多假设联合来构造聚合代价矩阵,以此对视图选择进行推断,生成深度图估计;通过以上两个策略,本发明能够快速准确地得到稠密三维重建结果。
附图说明
图1是本发明方法的总体流程图;
图2是本发明方法所采用的棋盘网格模式;
图3是本发明方法提出的非对称棋盘网格传播方式。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本算法最大的贡献在于突破了对称棋盘网格传播方式的传播受限问题,并进一步采用多假设联合的视图选择方法推断出较为准确的视图聚合集合。在图1中,核心创新包括两大部分:一是采用非对称棋盘网格传播方式;二是针对候选视图与候选假设构造代价矩阵,进行多假设联合的视图选择。最终得到的稠密三维模型可用于分类、基于图像的渲染与定位等。其具体实施方式如下:
如图1所示本发明方法流程具体如下:
随机初始化:在校正的图像集中选定一幅图像作为参考图像,其他图像则作为源图像。在参考图像上,为每个像素点生成一个随机的深度值和法向值,即假设。则每个像素的假设都在三维空间中对应一个倾斜平面结构,每个假设对应一幅源图像的匹配代价为mij(其中,i代表第i个假设,j代表第j幅源图像),对每个像素的假设采用启发式视图选择方法选择前50%小的匹配代价,采用均值处理预先计算一个初始的聚合匹配代价。
非对称棋盘网格传播方式:首先将当前参考图像的所有像素划分为红黑相间的棋盘网格模式,如图2所示。棋盘网格模式有利于GPU的大规模并行计算,可以同时对黑色格子或红色格子中的像素进行假设估计,而彼此之间又不互相干扰。然后,对于处于黑色格子中的每个像素,我们按照图3的方式从红色格子中划定其8个邻域,包括近距离邻域的4块暗色区域,远距离邻域的4块浅色区域。根据当前每个区域所计算出来的聚合匹配代价,我们从每个区域中选择聚合代价最小的那个假设作为候选的8个假设。传递到中心待估计的像素中。
多假设联合视图选择:根据非对称棋盘网格中假设的传播,对于每个黑色格子的像素都有8个候选假设,需要为这些假设选择合适的视图进行匹配代价聚合以挑选出当前最优假设。我们首先为这些假设和所有的候选视图分别计算他们对应的匹配代价,构造代价矩阵如下:
其中,N为源图像数量。
我们首先观察代价矩阵的每一列,也就是“视图”的视角。一般来说,对于一幅不合适的视图,其所对应的8个匹配代价一般都会比较高;而对于一幅较为合适的视图,其总会有一定数量的匹配代价相对较小。因此,我们定义匹配代价阈值如下:
其中,t为当前迭代次数,为初始匹配代价阈值,α为设定带宽,e为自然对数。上式表征由于随着迭代的进行,匹配代价值也会相应地收敛,因此匹配代价阈值也会相应地变得更为严苛。如果对于每一列中有2个匹配代价小于τmc(t),则该视图就会被认为是合适的视图。否则剔除该源图像;
其次,我们观察矩阵代价的每一行,也就是“假设”的视角。对于(3.1)选出来的视图集合,我们要根据每个假设在这些视图上的匹配代价来进行聚合匹配代价计算。然而,尽管我们在(3.1)中选择出来了聚合视图集合,然而每个视图这时的重要性是等同的,为了更明显地区分这些视图的重要性,我们要为每幅视图生成相应的置信度,对于一个匹配代价,其置信度为:
其中,β为设定带宽。则每幅视图的重要性衡量如下:
最后,根据每幅视图的重要性,我们对每个假设对应行的匹配代价进行代价聚合,计算如下:
根据上式,可分别为8个假设计算对应的聚合匹配代价,并从中选择最小匹配代价对应的假设作为所估计像素的深度与法向。
在进行完黑色格子中像素的处理后,按照相同的原理对红色格子中的像素进行处理。也就是说,在对红色格子中的像素进行深度和法向估计时,从其黑色格子的8个邻域中挑选各自挑选一个匹配代价最小的假设传播到红色格子中,然后采用多假设联合推断的方法进行视图选择,并生成聚合匹配代价,选择当前最佳假设。
迭代优化:对以上步骤迭代一定次数,使算法最终收敛,得到该参考图像的初步深度图估计。最后,对该估计得到的深度图采用中值滤波来滤除一定的错误深度估计。
深度图融合:按照上述深度图的生成步骤依次处理剩下的图像,每幅图像依次作为参考图像进行深度估计得到其深度图。最后每幅图像都会得到相应的深度估计与法向估计,为了减少深度估计的冗余性并进一步抑制错误的估计,我们依次将每幅图像的深度值投影到邻域图像中,法向也经过旋转变换到相应的邻域图像中,对于一个像素估计的深度与法向,如果其在邻域图像投影的深度与邻域图像对应像素估计的深度差异不大于深度阈值τd,τd取值0.3,而且旋转变换后的法向与领域图像对应像素估计的法向夹角不大于角度阈值τn,τn取值30,则认为该深度与法向估计是一致的。当一致的图像个数大于2个,则对这些像素的深度进行均值处理得到最后的深度估计,融合成最终的稠密三维模型。以上内容本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述方法包括:
(1)在校正的图像集中选定一幅图像作为参考图像,其他图像则作为源图像;对参考图像进行随机初始化;
(2)将当前参考图像的所有像素划分为红黑相间的棋盘网格模式,对于处于黑色格子中的像素X,以X为中心从红色格子中划定多块近距离邻域区域和多块远距离邻域区域;计算每个区域内所有像素的假设的初始聚合匹配代价,每个区域都选出初始聚合匹配代价最小的假设作为像素X的候选假设;
(3)为像素X构造匹配代价矩阵T:
其中,K表示候选假设的数量,N表示源图像的数量;mKN表示第K个候选假设相对于第N个源图像的匹配代价;
(4)在矩阵T中按列选取该列中所有匹配代价和匹配代价阈值对比,若该列中有n个小于匹配代价阈值的匹配代价,则矩阵T保留该列,否则矩阵T剔除该列;
(5)为矩阵T中每个列生成一个对应的权重,在矩阵T中按行选取该行的所有匹配代价,根据该行各个匹配代价所对应的权重计算该行的权重聚合匹配代价,对比矩阵T所有行的权重聚合匹配代价,选取最小的权重聚合匹配代价对应的假设作为像素X的假设;
(6)将棋盘网格模式中黑色和红色对换,重复步骤(2)~(5),得到参考图像中所有像素的假设;
(7)重复迭代步骤(2)~(6),使参考图像中所有像素的假设最终收敛,再由参考图像中所有像素的假设中的深度构建参考图像的深度图;
(8)从校正的图像集中选定另一幅图像,重复步骤(1)~(7),直到得到所述图像集中所有图像的深度图;将所有深度图融合得到稠密三维模型。
2.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(1)中校正的图像集为待处理图像集,且图像集中所有图像的相机拍摄姿态已知。
3.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(1)中对参考图像进行随机初始化具体为:
当前参考图像中每个像素生成一个随机的深度和法向,该像素的深度和法向的组合即该像素的假设。
4.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(2)中多块近距离邻域区域在当前参考图像中以像素X为中心对称分布;多块远距离邻域区域在当前参考图像中以像素X为中心对称分布;近距离邻域区域和像素X之间的距离小于远距离邻域区域和像素X之间的距离。
5.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(2)中假设的初始聚合匹配代价具体为:
一个假设对应一幅源图像的匹配代价为mij,其中,i代表第i个假设,j代表第j幅源图像;对每个假设对应的匹配代价进行由大到小的排序,选取后一半匹配代价的均值作为该假设的初始聚合匹配代价。
6.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(4)中匹配代价阈值为:
<mrow> <msub> <mi>&amp;tau;</mi> <mrow> <mi>m</mi> <mi>c</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;tau;</mi> <mrow> <msub> <mi>mc</mi> <mrow> <mi>i</mi> <mi>n</mi> <mi>i</mi> <mi>t</mi> </mrow> </msub> </mrow> </msub> <mo>&amp;CenterDot;</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <msup> <mi>t</mi> <mn>2</mn> </msup> <mi>&amp;alpha;</mi> </mfrac> </mrow> </msup> <mo>,</mo> </mrow>
其中,t为当前迭代次数,为初始匹配代价阈值,α为设定带宽,e为自然对数。
7.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(5)中权重聚合匹配代价的计算具体为:
先为矩阵T中每列生成相应的权重:
其中,式中,β为设定带宽;第i个假设对应第j幅源图像的匹配代价为mij
再计算矩阵T中每行的权重聚合匹配代价:
最后选择最小的权重聚合匹配代价对应的假设作为像素X的假设。
8.根据权利要求1所述的一种基于多假设联合视图选择的稠密三维重建方法,其特征在于,所述步骤(8)中将所有深度图融合得到稠密三维模型具体为:
依次将每幅深度图的深度投影到邻域图像中,法向旋转变换到相应的邻域图像中,若该深度图中一个像素在邻域图像投影的深度与邻域图像对应像素估计的深度差异不大于深度阈值τd,且旋转变换后的法向与邻域图像对应像素估计的法向夹角不大于角度阈值τn,则该深度图的深度与法向是一致的;若深度与法向一致的深度图数量大于2,则将深度与法向一致的深度图中对应像素的深度投影到公共坐标系下,得到各像素的空间三维点,并对所述空间三维点进行均值处理得到一个最终的空间三维点,对每幅深度图进行以上相同的处理生成最终的稠密三维模型。
9.根据权利要求1所述的一种多假设联合视图选择的稠密三维重建方法,其特征在于,采用GPU的并行计算对参考图像中所有像素同时执行步骤(2)~(5)。
CN201711395981.4A 2017-12-21 2017-12-21 一种基于多假设联合视图选择的稠密三维重建方法 Active CN107862742B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711395981.4A CN107862742B (zh) 2017-12-21 2017-12-21 一种基于多假设联合视图选择的稠密三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711395981.4A CN107862742B (zh) 2017-12-21 2017-12-21 一种基于多假设联合视图选择的稠密三维重建方法

Publications (2)

Publication Number Publication Date
CN107862742A true CN107862742A (zh) 2018-03-30
CN107862742B CN107862742B (zh) 2020-08-14

Family

ID=61706820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711395981.4A Active CN107862742B (zh) 2017-12-21 2017-12-21 一种基于多假设联合视图选择的稠密三维重建方法

Country Status (1)

Country Link
CN (1) CN107862742B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110176060A (zh) * 2019-04-28 2019-08-27 华中科技大学 基于多尺度几何一致性引导的稠密三维重建方法和系统
WO2021035627A1 (zh) * 2019-08-29 2021-03-04 深圳市大疆创新科技有限公司 获取深度图的方法、装置及计算机存储介质
CN115082540A (zh) * 2022-07-25 2022-09-20 武汉图科智能科技有限公司 一种适用于无人机平台的多视图深度估计方法及装置
CN115170745A (zh) * 2022-09-07 2022-10-11 武汉图科智能科技有限公司 一种基于立体视觉的无人机测距方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976455B (zh) * 2010-10-08 2012-02-01 东南大学 一种基于立体匹配的彩色图像三维重建方法
WO2014177604A1 (en) * 2013-04-30 2014-11-06 3Ddynamics Bvba Method and system for generating a 3d model
CN104200517A (zh) * 2014-08-06 2014-12-10 北京工业大学 一种三维重建方法
CN106097436A (zh) * 2016-06-12 2016-11-09 广西大学 一种大场景对象的三维重建方法
CN106683173A (zh) * 2016-12-22 2017-05-17 西安电子科技大学 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN107170042A (zh) * 2017-06-19 2017-09-15 电子科技大学 一种无序图像的多视立体匹配的三维重建方法
CN107247834A (zh) * 2017-05-31 2017-10-13 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976455B (zh) * 2010-10-08 2012-02-01 东南大学 一种基于立体匹配的彩色图像三维重建方法
WO2014177604A1 (en) * 2013-04-30 2014-11-06 3Ddynamics Bvba Method and system for generating a 3d model
CN104200517A (zh) * 2014-08-06 2014-12-10 北京工业大学 一种三维重建方法
CN106097436A (zh) * 2016-06-12 2016-11-09 广西大学 一种大场景对象的三维重建方法
CN106683173A (zh) * 2016-12-22 2017-05-17 西安电子科技大学 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法
CN107247834A (zh) * 2017-05-31 2017-10-13 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN107170042A (zh) * 2017-06-19 2017-09-15 电子科技大学 一种无序图像的多视立体匹配的三维重建方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JIAN SUN,NAN-NING ZHENG,HEUNG-YEUNG SHUM: "Stereo Matching Using Belief Propagation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
SILVANO GALLIANI,KATRIN LASINGER,KONRAD SCHINDLER: "Massively Parallel Multiview Stereopsis by Surface Normal Diffusion", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
戴嘉境: "基于多幅图像的三维重建理论及算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
时连标: "基于匹配点传播的三维重建及深度估计算法", 《电子技术与软件工程》 *
罗成志: "基于置信传播的立体匹配算法研究及实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110176060A (zh) * 2019-04-28 2019-08-27 华中科技大学 基于多尺度几何一致性引导的稠密三维重建方法和系统
CN110176060B (zh) * 2019-04-28 2020-09-18 华中科技大学 基于多尺度几何一致性引导的稠密三维重建方法和系统
WO2021035627A1 (zh) * 2019-08-29 2021-03-04 深圳市大疆创新科技有限公司 获取深度图的方法、装置及计算机存储介质
CN115082540A (zh) * 2022-07-25 2022-09-20 武汉图科智能科技有限公司 一种适用于无人机平台的多视图深度估计方法及装置
CN115082540B (zh) * 2022-07-25 2022-11-15 武汉图科智能科技有限公司 一种适用于无人机平台的多视图深度估计方法及装置
CN115170745A (zh) * 2022-09-07 2022-10-11 武汉图科智能科技有限公司 一种基于立体视觉的无人机测距方法
CN115170745B (zh) * 2022-09-07 2022-12-06 武汉图科智能科技有限公司 一种基于立体视觉的无人机测距方法

Also Published As

Publication number Publication date
CN107862742B (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN107862742B (zh) 一种基于多假设联合视图选择的稠密三维重建方法
Wei et al. Aa-rmvsnet: Adaptive aggregation recurrent multi-view stereo network
Wang et al. Patchmatchnet: Learned multi-view patchmatch stereo
Chen et al. Point-based multi-view stereo network
Zhang et al. Learning signed distance field for multi-view surface reconstruction
Huang et al. M3VSNet: Unsupervised multi-metric multi-view stereo network
CN108520554B (zh) 一种基于orb-slam2的双目三维稠密建图方法
Yifan et al. Iso-points: Optimizing neural implicit surfaces with hybrid representations
CN106780751A (zh) 基于改进的屏蔽泊松算法的三维点云重建方法
CN103729872B (zh) 一种基于分段重采样和表面三角化的点云增强方法
CN103996202A (zh) 一种基于混合匹配代价和自适应窗口的立体匹配方法
CN103106651B (zh) 一种基于三维hough变换的获取视差平面的方法
CN103996201A (zh) 一种基于改进梯度和自适应窗口的立体匹配方法
Li et al. ADR-MVSNet: A cascade network for 3D point cloud reconstruction with pixel occlusion
CN106530333A (zh) 基于捆绑约束的分级优化立体匹配方法
CN108876861B (zh) 一种地外天体巡视器的立体匹配方法
CN103268604B (zh) 双目视频深度图求取方法
CN113780389B (zh) 基于一致性约束的深度学习半监督密集匹配方法及系统
Campos et al. Surface reconstruction methods for the recovery of 3D models from underwater interest areas
CN109816781B (zh) 一种基于图像细节和结构增强的多视图立体几何方法
Mordohai The self-aware matching measure for stereo
CN104766367B (zh) 一种计算三维模型处理中三维网格拓扑结构图构造方法
Morreale et al. Dense 3D visual mapping via semantic simplification
Shen Depth-map merging for multi-view stereo with high resolution images
KR102665543B1 (ko) 다시점 영상으로부터의 깊이지도 생성 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant