CN107170042A - 一种无序图像的多视立体匹配的三维重建方法 - Google Patents

一种无序图像的多视立体匹配的三维重建方法 Download PDF

Info

Publication number
CN107170042A
CN107170042A CN201710465218.8A CN201710465218A CN107170042A CN 107170042 A CN107170042 A CN 107170042A CN 201710465218 A CN201710465218 A CN 201710465218A CN 107170042 A CN107170042 A CN 107170042A
Authority
CN
China
Prior art keywords
view
neighborhood
point
mrow
mtd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710465218.8A
Other languages
English (en)
Other versions
CN107170042B (zh
Inventor
李纯明
郭悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201710465218.8A priority Critical patent/CN107170042B/zh
Publication of CN107170042A publication Critical patent/CN107170042A/zh
Application granted granted Critical
Publication of CN107170042B publication Critical patent/CN107170042B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于三维重建技术领域,涉及一种无序图像的多视立体匹配的三维重建方法。本发明的方法在视图选择算法部分,1)针对全局视图选择过程,首先引入判决条件,并自适应候选视图集中视图数目,不在是固定值的视图集。算法中对不满足条件的视图不进行打分。随着应用范围的不断扩大,实验数据集的视图数越来越多,因此减少视图选择的时间至关重要。2)对于局部视图算法本发明改进邻域视图与基准视图极平面夹角的权重影响因子,使得选择的邻域视图更加精确和有代表性。在视图匹配区域增长过程中3)本发明提出自适应形状空间平面片算法,自适应形状可以自适应的适应边界信息,得到更好地匹配结果。

Description

一种无序图像的多视立体匹配的三维重建方法
技术领域
本发明属于三维重建技术领域,涉及一种无序图像的多视立体匹配的三维重建方法。
背景技术
无序图形的多视立体匹配的三维重建过程是相机在多视角下采集场景的视图集,然后通过多视立体匹配获取场景深度的信息,重建场景的三维模型。目前根据深度获取方式主要有基于主动式的和基于被动式的方法。基于主动式方法是指利用现阶段比较成熟的设备直接获得深度信息,如结构光扫描仪,是通过编解码投影条纹得到图像像素点的同名点,然后通过三角测量等技术估计深度信息;又如微软的Kinect-V2深度相机或激光扫描仪是利用TOF技术获取深度信息。这些设备在一些特定场景下可以获取比较准确的深度信息,但是设备比较复杂不易携带,对自然光照要求较高,场景适用范围有限,而且成本较高。基于被动式的获取深度信息是传统获取深度信息的方式,通过相机采集图像数据,根据相机的成像原理和摄影几何相关理论知识估计场景的深度信息。根据匹配的图像数目分类又可分为三类,对单张图像的理解、基于双目立体匹配以及多个视角的多视图立体匹配,这个过程没有光照限制,是在自然光照下完成图像采集,设备方便懈怠、操作简单、成本低且自动化程度高等优点被广泛的应用在很多领域。多视立体图像的研究具有重要的应用价值,其应用包括移动机器人的自主导航系统,航空及遥感测量,工业自动化系统等。
发明内容
本发明所要解决的是,就是提出一种融合上述传统技术方案的用于无序图像的多视立体匹配的三维重建方法。
本发明的技术方案是:如图1所示,包括以下步骤:
(1)自然环境中采集多视角下的图像集。根据相机的出厂参数获取相机的内部参数。
(2)提取图像的特征点,进行图像特征匹配,估计相机的位置关系(选准矩阵和平移矩阵),也称为相机外参数。
(3)利用全局视图选择算法确定基准视图的邻域视图候选集,本发明加入视图选择的判决条件,并自适应的确定邻域视图选择候选集中的视图,不是固定数。
(4)利用局部视图选择算法在邻域视图候选集中选择基准视图的4邻域视图集。
(5)计算种子点的匹配置信度,构建置信度优先队列。迭代增长种子点并优化其深度和法线信息,本发明利用自适应窗口空间平面片模板优化种子点的深度信息,对满足条件的种子点将其四邻域点中没有重建的点加入队列中,再将该种子点在队列中删掉,直到优先队列中为空停止迭代。最终得到空间点云。
(6)泊松建面,步骤(5)中得到点云信息,通过泊松建面得到完整的三维模型。
进一步的,所述步骤(2)具体包括的具体过程如下:
(2.1)多视图集是在自然环境下采集的,存在分辨率、光照以及视图分布不规则等不确定因素,因此本发明提取了SIFT和SURF特征,并结合两特征进行图像的两两匹配,记录两视图间的匹配特征点对。
(2.2)通过SFM算法得到相机的位置参数(旋转矩阵和平移矩阵),另外SFM算法会得到空间稀疏的空间点。
进一步的,所述步骤(3)具体包括的子步骤:
(3.1)对于包含N幅图像的大规模图像集,没幅视图都作为基准视图,利用基于图像级的全局视图选择算法选择基准视图的邻域视图候选集。首先构建打分函数,将除基准视图和已选入邻域视图候选集外的视图与基准视图计算打分值,将最高打分值的视图加入邻域视图候选集中。
(3.2)在计算打分值之前引入判决函数,对满足条件的视图才计算打分值,判决函数形式如式1所示,
其中,其中R表示基准视图,V是待选视图,ftracei表示在视图i中可视的特征空间点,实验中定义τmin=0.05,τmax=0.97。本发明中自适应确定邻域视图候选集中的视图数目,不在是固定值,但是定义候选视图数目的最大值。
(3.3)计算打分值,打分函数形式如式2所示,
计算待选视图与基准视图之间的相机光心射线夹角的权重wN'(f),并且计算待选视图与已选入视图候选集中视图的光心射线夹角的权重,具体形式如式3所示,
其中α表示两视图的相机光心射线夹角,实验中定义αmax=10,wα的形式为wα(f,Vi,Vj)=min((α/αmax)2,1)
(3.4)ws(f)是匹配待选视图与基准视图的分辨率。
(3.5)选择打分值最高的视图加入该基准视图的邻域视图候选集中,然后再将剩余的视图(除去基准视图和已经选入邻域视图候选集的视图)重新计算打分值,选择打分值最高的加入候选集,不断地循环该过程,遍历所有的满足判决条件的视图。
全局视图选择算法流程图如图2所示。
进一步的,所述步骤(4)具体包括的子步骤:
(4.1)对基准视图的每个特征点利用局部视图选择算法选择4邻域视图,选择其中一个特征点,构建打分函数,筛选出与基准视图的可视特征点相似性较大的4邻域视图。局部视图选择打分函数的形式为式(4)所示,
(4.2)遍历邻域视图候选集中的视图,分别计算待选视图与基准视图中该特征点匹配的像素点的光度一致性,用NCC值表征,具体如式(5)所示,
(4.3)计算待选视图与基准视图的之间的相机光心射线夹角αrv的权重,如式(6)所示,并且计算待选视图与已选入邻域视图集中视图的空间关系w(V,V'),
w(V,V')=we(V,V')·wv(V,V') (7)
其中we(V,V')表征视图V,V'分别与基准视图极平面的夹角权重,wv(V,V')表征视图V,V'相机光心射线夹角的关系,其形式分别为(8)(9):
其中βvv'是视图v,v'与基准视图的极平面的夹角,一般β取锐角形式。本文参数选择σβ设置形式为:
(4.4)同全局视图选择算法相同,选择打分值最高的视图加入邻域视图集中,循环计算打分值,直到选择出4邻域视图。局部视图选择打分函数的构建算法框图如图3所示。
进一步的,所述步骤(5)具体包括的子步骤:
(5.1)构建匹配置信度优先队列,选择SFM算法得到的稀疏的空间点作为初始种子点,计算该点与其邻域视图的匹配置信度。
(5.2)每次选择队列中置信度最高的点进行增长和优化,匹配算法流程图如图6所示。将该种子点投影到基准视图计算该点n×n邻域图像块的初始空间平面片,初始深度均为1,形式为式(10)所示:
其中h(s,t)是初始深度,表征可视点的相机光心射线。
(5.3)本发明提出一种自适应形状空间平面片算法,将n×n的矩形窗变成自适应的窗形状,使得投影到空间的空间平面片也是自适应形状的,可以自适应边界信息。形式为式(11)所示:
Pk *=w*Pk (11)
其中Pk是可视点在基准视图中对应的图像块,w*是自适应窗形状模板,因此Pk *是自适应形状的图像块,投影到空间的平面片也是自适应形状的。具体投影过程如图4所示。
(5.4)计算自适应窗模板形状。自适应窗形状模板是应用正交积分算法得到的,如图5所示,以可视投影像素点p为中心的n×n的窗内,定义p邻域窗中垂直线集Xc和水平线集Yc,并且定义自适应窗口的四个臂长为如图中两条正交线vp={vp-,vp+}和hp={hp-,hp+},依据局部图像块的颜色相似性特征自适应改变四个臂长。以vp-为例,在p垂直向下依次判断与邻域像素点的颜色相似性,指示函数为式(12)所示,
φ是指示函数用来估计窗内点pi与p间颜色的相似性,pi=(xp,yp-i),τ是阈值参数控制颜色相似程度。因此p点的最长向下跨度l*如公式(13)所示,
其中L是初始臂长,则下臂长度为vp-=max(l*,1)。同理可以得到其他三个臂的长度hp-,hp+,vp+,依据{hp-,hp+,vp-,vp+}计算投影点p的正交垂直集V(p)和水平线集Y如式(14)所示,
如上图所示的阴影部分为投影点p两条正交线,对于其邻域像素点都可以自适应的表示正交线,因此可以构建自适应窗区域X,如式(15)所示,
同样,自适应窗模板也可以表示为
(5.5)自适应形状空间平面片投影到邻域视图上,计算像素点的方向导数矩阵,估计深度的优化步进长度和方向,重新投影计算置信度,迭代该优化过程;如果在迭代收敛后置信度满足要求则增长该点,将该可视点的4邻域像素点中没有深度信息的点以相同的深度信息存入优先对列中;否则在该队列中直接删除该点。
(5.6)循环增长队列中所有的种子点,直到队列为空。
本发明的有益效果为:相对于传统技术,本发明的方法在视图选择算法部分,1)针对全局视图选择过程,首先引入判决条件,并自适应候选视图集中视图数目,不在是固定值的视图集。算法中对不满足条件的视图不进行打分。随着应用范围的不断扩大,实验数据集的视图数越来越多,因此减少视图选择的时间至关重要。2)对于局部视图算法本发明改进邻域视图与基准视图极平面夹角的权重影响因子,使得选择的邻域视图更加精确和有代表性。在视图匹配区域增长过程中3)本发明提出自适应窗形状空间平面片算法,自适应形状可以自适应的适应边界信息,得到更好地破匹配结果。
附图说明
图1为本发明总的流程示意图;
图2为全局视图选择算法流程图;
图3为局部视图选择构建打分函数流程图;
图4为自适应窗空间平面片;
图5为自适应窗模板;
图6为多视图匹配算法流程图。
具体实施方式
发明内容部分已经对本发明的技术方案进行了详细描述,在此不再赘述。

Claims (5)

1.无序图像的多视立体匹配的三维重建方法,其特征在于,包括以下步骤:
S1、自然环境中采集多视角下的图像集;
S2、提取图像集的特征点,进行图像特征匹配,估计相机的位置关系;
S3、利用全局视图选择算法确定基准视图的邻域视图候选集;
S4、利用局部视图选择算法在邻域视图候选集中选择基准视图的4邻域视图集;
S5、计算种子点的匹配置信度,构建置信度优先队列,对满足条件的种子点将其四邻域点中没有重建的点加入队列中,再将该种子点在队列中删掉,直到优先队列中为空停止迭代;最终得到空间点云;
S6、根据步骤5中得到点云信息,通过泊松建面得到完整的三维模型。
2.根据权利要求1所述的无序图像的多视立体匹配的三维重建方法,其特征在于,所述步骤S2的具体方法为:
S21、提取图像集的SIFT和SURF特征,并结合两特征进行图像的两两匹配,记录两视图间的匹配特征点对;
S22、通过SFM算法得到相机的位置参数和空间稀疏的空间点。
3.根据权利要求2所述的无序图像的多视立体匹配的三维重建方法,其特征在于,所述步骤S3的具体方法为:对于包含N幅图像的大规模图像集,每幅视图都作为基准视图,利用基于图像级的全局视图选择算法选择基准视图的邻域视图候选集,包括:
S31、通过如下公式1判断除基准视图和已选入邻域视图候选集外的视图是否满足计算打分值的判决条件:
公式1中,其中R表示基准视图,V是待选视图,ftracei表示在视图i中可视的特征空间点,定义τmin=0.05,τmax=0.97;
通过公式1获得基准视图的所有满足打分条件的视图;
S32、通过如下公式2所示的打分函数对满足步骤S31中条件的视图打分:
公式2中,视图V是待选视图,其中V∈N,N'是R和邻域视图集N的并集,FX表示视图X的特征点集合,f∈FV∩FR表示f是基准视图R和待选视图V的匹配特征点的集合;wN'(f)为待选视图与基准视图以及与已选入视图候选集中视图之间的相机光心射线夹角的权重,如下公式3:
其中,α表示两视图的相机光心射线的夹角,相机光心射线是指空间点与相机光心的连线,wα的形式为:
wα(f,Vi,Vj)=min((α/αmax)2,1);
设置αmax=10°;
S33、ws(f)是匹配待选视图与基准视图的分辨率,ws(f)的形式为:
<mrow> <msub> <mi>w</mi> <mi>s</mi> </msub> <mrow> <mo>(</mo> <mi>f</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>2</mn> <mo>/</mo> <mi>r</mi> </mrow> </mtd> <mtd> <mrow> <mn>2</mn> <mo>&amp;le;</mo> <mi>r</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mn>1</mn> <mo>&amp;le;</mo> <mi>r</mi> <mo>&amp;le;</mo> <mn>2</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>r</mi> </mtd> <mtd> <mrow> <mi>r</mi> <mo>&lt;</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,r=sR(f)/sV(f),sV(f)表示以空间点f为中心的球体的直径,ws(f)值越大表示该视图与R的采样率相似;
S34、选择打分值最高的视图加入该基准视图的邻域视图候选集中,然后再将剩余的视图重新计算打分值,选择打分值最高的加入候选集,不断地循环该过程,直至遍历所有满足判决条件的视图。
4.根据权利要求3所述的无序图像的多视立体匹配的三维重建方法,其特征在于,所述步骤S4的具体方法为:对基准视图中的每个特征点利用局部视图选择算法选择其4邻域视图;首先选择其中一个特征点,构建打分函数,筛选出与基准视图的可视特征点相似性较大的4邻域视图,包括:
S41、构建局部视图的打分函数如下公式4所示:
S42、遍历邻域视图候选集中的视图,分别计算待选视图与基准视图中该特征点匹配的像素点的光度一致性,用NCC值表征,如下公式5:
其中,v0,v1是n×n的图像块,表示图像块中所有像素值的平均值;可视点在R中对应的图像块和在邻域视图V上对应的图像块的NCC越大,表明两视图越匹配,因此忽略候选视图集中NCC<0.3的视图;
S43、通过如下公式6计算待选视图与基准视图的之间的相机光心射线夹角αrv的权重:
通过如下公式7计算待选视图与已选入邻域视图集中视图的空间关系w(V,V'):
w(V,V')=wv(V,V')·we(V,V') (公式7)
其中,wv(V,V')表征视图V,V'相机光心射线夹角αvv'的关系:
we(V,V')表征视图V,V'分别与基准视图构成的极平面的夹角权重:
其中βvv'是视图v,v'与基准视图的极平面的夹角,一般β取锐角形式;设置σβ设置形式为:
S44、选择打分值最高的视图加入邻域视图集中,循环计算打分值,直到选择出4邻域视图;如果迭代中没有找到4邻域视图,则将该点删除。
5.根据权利要求4所述的无序图像的多视立体匹配的三维重建方法,其特征在于,所述步骤S5的具体方法为:
S51、构建匹配置信度优先队列,选择SFM算法得到的稀疏的空间点作为初始种子点,计算该点与其邻域视图的匹配置信度,置信度为该点在基准视图以及在4邻域视图NCC的平均值;
S52、每次选择队列中置信度最高的点进行增长和优化,将该种子点投影到基准视图计算该点n×n的邻域图像块的初始空间平面片,初始深度均为1,如下公式10所示:
其中h(s,t)是初始深度,表征可视点的相机光心射线;
S53、将上述n×n的矩形窗变成自适应的窗形状,使得投影到空间的空间平面片也是自适应形状的,可以自适应边界信息,如下公式11所示:
Pk *=w*Pk (公式11)
其中Pk是可视点在基准视图中对应的图像块,w*是自适应窗形状模板,因此Pk *是自适应形状的图像块,投影到空间的平面片也是自适应形状的;
S54、计算自适应窗模板形状:自适应窗形状模板是应用正交积分算法得到的,以投影像素点p为中心的n×n的窗内,定义p邻域窗中垂直线集Xc和水平线集Yc,并且定义自适应窗口的四个臂长为如图中两条正交线vp={vp-,vp+}和hp={hp-,hp+},依据局部图像块的颜色相似性特征自适应改变四个臂长,以vp-为例,在p垂直向下依次判断与邻域像素点的颜色相似性,指示函数如公式12所示:
φ是指示函数用来估计窗内点pi与p间颜色的相似性,pi=(xp,yp-i),τ是阈值参数控制颜色相似程度,因此p点的最长向下跨度l*如公式13所示:
其中L是初始臂长,则下臂长度为vp-=max(l*,1),同理可以得到其他三个臂的长度hp-,hp+,vp+,依据{hp-,hp+,vp-,vp+}计算投影点p的正交垂直集V(p)和水平线集Y如公式14所示,
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>H</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>{</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>x</mi> <mo>&amp;Element;</mo> <mo>{</mo> <msub> <mi>x</mi> <mi>p</mi> </msub> <mo>-</mo> <msup> <mi>hp</mi> <mo>-</mo> </msup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>x</mi> <mi>p</mi> </msub> <mo>+</mo> <msup> <mi>hp</mi> <mo>+</mo> </msup> <mo>}</mo> <mo>,</mo> <mi>y</mi> <mo>=</mo> <msub> <mi>y</mi> <mi>p</mi> </msub> <mo>}</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>V</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>{</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>x</mi> <mo>=</mo> <msub> <mi>x</mi> <mi>p</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>&amp;Element;</mo> <mo>{</mo> <msub> <mi>y</mi> <mi>p</mi> </msub> <mo>-</mo> <msup> <mi>vp</mi> <mo>-</mo> </msup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>y</mi> <mi>p</mi> </msub> <mo>+</mo> <msup> <mi>vp</mi> <mo>+</mo> </msup> <mo>}</mo> <mo>}</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>
因此可以构建自适应窗区域X,如公式15所示:
同样,自适应窗模板也可以表示为
S55、自适应形状空间平面片投影到邻域视图上,计算像素点的方向导数矩阵,估计深度的优化步进长度和方向,重新投影计算匹配置信度,迭代该优化过程;如果在迭代结束后置信度满足要求则增长该点,即将该可视点的4邻域像素点中没有被重建的点以相同的深度信息存入优先对列中;否则在该队列中直接删除该点;
S56、循环增长队列中所有的种子点,直到队列为空。
CN201710465218.8A 2017-06-19 2017-06-19 一种无序图像的多视立体匹配的三维重建方法 Expired - Fee Related CN107170042B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710465218.8A CN107170042B (zh) 2017-06-19 2017-06-19 一种无序图像的多视立体匹配的三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710465218.8A CN107170042B (zh) 2017-06-19 2017-06-19 一种无序图像的多视立体匹配的三维重建方法

Publications (2)

Publication Number Publication Date
CN107170042A true CN107170042A (zh) 2017-09-15
CN107170042B CN107170042B (zh) 2019-06-04

Family

ID=59820194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710465218.8A Expired - Fee Related CN107170042B (zh) 2017-06-19 2017-06-19 一种无序图像的多视立体匹配的三维重建方法

Country Status (1)

Country Link
CN (1) CN107170042B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862742A (zh) * 2017-12-21 2018-03-30 华中科技大学 一种基于多假设联合视图选择的稠密三维重建方法
CN108038902A (zh) * 2017-12-07 2018-05-15 合肥工业大学 一种面向深度相机的高精度三维重建方法和系统
CN109064536A (zh) * 2018-07-27 2018-12-21 电子科技大学 一种基于双目结构光的书页三维重建方法
CN110223383A (zh) * 2019-06-17 2019-09-10 重庆大学 一种基于深度图修补的植物三维重建方法及系统
CN110288581A (zh) * 2019-06-26 2019-09-27 电子科技大学 一种基于保持形状凸性水平集模型的分割方法
CN110322518A (zh) * 2019-07-05 2019-10-11 深圳市道通智能航空技术有限公司 立体匹配算法的评价方法、评价系统及测试设备
CN110660095A (zh) * 2019-09-27 2020-01-07 中国科学院自动化研究所 动态环境下的视觉slam初始化方法、系统、装置
CN110992431A (zh) * 2019-12-16 2020-04-10 电子科技大学 一种双目内窥镜软组织图像的联合三维重建方法
CN112967330A (zh) * 2021-03-23 2021-06-15 之江实验室 一种结合SfM和双目匹配的内窥图像三维重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739721A (zh) * 2010-01-21 2010-06-16 西北工业大学 基于时变和无序多图像的四维场景建模方法
CN103927787A (zh) * 2014-04-30 2014-07-16 南京大学 一种基于矩阵恢复的提高三维重建精度的方法及其装置
CN104299260A (zh) * 2014-09-10 2015-01-21 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739721A (zh) * 2010-01-21 2010-06-16 西北工业大学 基于时变和无序多图像的四维场景建模方法
CN103927787A (zh) * 2014-04-30 2014-07-16 南京大学 一种基于矩阵恢复的提高三维重建精度的方法及其装置
CN104299260A (zh) * 2014-09-10 2015-01-21 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038902A (zh) * 2017-12-07 2018-05-15 合肥工业大学 一种面向深度相机的高精度三维重建方法和系统
CN107862742A (zh) * 2017-12-21 2018-03-30 华中科技大学 一种基于多假设联合视图选择的稠密三维重建方法
CN109064536A (zh) * 2018-07-27 2018-12-21 电子科技大学 一种基于双目结构光的书页三维重建方法
CN110223383A (zh) * 2019-06-17 2019-09-10 重庆大学 一种基于深度图修补的植物三维重建方法及系统
CN110288581A (zh) * 2019-06-26 2019-09-27 电子科技大学 一种基于保持形状凸性水平集模型的分割方法
CN110288581B (zh) * 2019-06-26 2022-11-04 电子科技大学 一种基于保持形状凸性水平集模型的分割方法
CN110322518B (zh) * 2019-07-05 2021-12-17 深圳市道通智能航空技术股份有限公司 立体匹配算法的评价方法、评价系统及测试设备
CN110322518A (zh) * 2019-07-05 2019-10-11 深圳市道通智能航空技术有限公司 立体匹配算法的评价方法、评价系统及测试设备
CN110660095A (zh) * 2019-09-27 2020-01-07 中国科学院自动化研究所 动态环境下的视觉slam初始化方法、系统、装置
CN110660095B (zh) * 2019-09-27 2022-03-25 中国科学院自动化研究所 动态环境下的视觉slam初始化方法、系统、装置
CN110992431A (zh) * 2019-12-16 2020-04-10 电子科技大学 一种双目内窥镜软组织图像的联合三维重建方法
CN112967330A (zh) * 2021-03-23 2021-06-15 之江实验室 一种结合SfM和双目匹配的内窥图像三维重建方法
CN112967330B (zh) * 2021-03-23 2022-08-09 之江实验室 一种结合SfM和双目匹配的内窥图像三维重建方法

Also Published As

Publication number Publication date
CN107170042B (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
CN107170042A (zh) 一种无序图像的多视立体匹配的三维重建方法
JP5778237B2 (ja) ポイントクラウド内の埋め戻しポイント
CN108520554B (zh) 一种基于orb-slam2的双目三维稠密建图方法
CN110084304B (zh) 一种基于合成数据集的目标检测方法
WO2015188684A1 (zh) 三维模型重建方法与系统
EP3242275B1 (en) Using photo collections for three dimensional modeling
CN109472828B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
EP3274964B1 (en) Automatic connection of images using visual features
KR101869605B1 (ko) 평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법
CN110567441B (zh) 基于粒子滤波的定位方法、定位装置、建图及定位的方法
CN113240734B (zh) 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
CN110189400A (zh) 一种三维重建方法、三维重建系统、移动终端及存储装置
CN104182968A (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
CN111105451B (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN113034571A (zh) 一种基于视觉—惯性的物体三维尺寸测量方法
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
CN110428461B (zh) 结合深度学习的单目slam方法及装置
Saxena et al. 3-d reconstruction from sparse views using monocular vision
CN110390724A (zh) 一种带有实例分割的slam方法
CN117726747A (zh) 补全弱纹理场景的三维重建方法、装置、存储介质和设备
CN112750155A (zh) 基于卷积神经网络的全景深度估计方法
JP2016148588A (ja) デプス推定モデル生成装置及びデプス推定装置
US9240055B1 (en) Symmetry-based interpolation in images
CN113920270A (zh) 一种基于多视角全景的布局重建方法及其系统
Yang et al. Road detection by RANSAC on randomly sampled patches with slanted plane prior

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190604

Termination date: 20200619

CF01 Termination of patent right due to non-payment of annual fee