CN108038902B - 一种面向深度相机的高精度三维重建方法和系统 - Google Patents
一种面向深度相机的高精度三维重建方法和系统 Download PDFInfo
- Publication number
- CN108038902B CN108038902B CN201711283596.0A CN201711283596A CN108038902B CN 108038902 B CN108038902 B CN 108038902B CN 201711283596 A CN201711283596 A CN 201711283596A CN 108038902 B CN108038902 B CN 108038902B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- camera
- feature
- points
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种面向深度相机的多视图三维重建方法和系统。所述方法包括:根据深度相机从不同角度获取真实场景的多对图像,每对图像包括彩色图像和深度图像;根据特征点检测算法获取各彩色图像上的二维特征点和特征描述子,计算任意两个彩色图像分别对应的特征描述子之间的置信度,获取特征匹配关系;根据各特征匹配关系及对应的深度图像,获取对应的三维图像,将二维特征点反投影到相机坐标系下,获取三维图像上的三维点;根据二维特征点和三维点计算摄像机的绝对姿态;根据摄像机的绝对姿态,将三维点映射到所述相机坐标系下,获取场景的初始三维模型。采用本发明的方法或系统能够从深度相机采集的图像序列中恢复出高精度的三维场景模型。
Description
技术领域
本发明涉及计算机视觉与计算机图形学领域,特别是涉及一种面向深度相机的高精度三维重建方法和系统。
背景技术
高精度的三维重建一直是计算机视觉与图形学领域的热点研究问题之一,其目的是如何从输入图像序列中高效率的恢复场景的三维模型。同时三维重建技术在游戏产业、军事仿真、农业与工业、增强现实、虚拟现实、场景监控、地图导航和自动驾驶等领域具有不可代替的作用。由于场景中存在的光照变化、目标之间的遮挡、场景的聚集、重复结构、采集数据存在噪声等因素的影响,导致传统的以手工为主的主动式的三维建模方法难以重建出真实的三维场景模型,不能从大量的图像序列中恢复所包含的高精度的三维场景模型。
发明内容
本发明的目的是提供一种面向深度相机的多视图三维重建方法和系统,能够从深度相机采集的图像序列中恢复出高精度的三维场景模型。
为实现上述目的,本发明提供了如下方案:
一种面向深度相机的多视图三维重建方法,所述多视图三维重建方法包括:
根据深度相机从不同角度获取真实场景的多对图像,每对图像包括同一角度的彩色图像和深度图像;
根据特征点检测算法获取各所述彩色图像上的二维特征点和所述二维特征点对应的特征描述子,计算任意两个所述彩色图像分别对应的特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系;
根据各所述特征匹配关系及对应的深度图像,获取对应的三维图像,将所述二维特征点反投影到相机坐标系下,获取所述三维图像上的三维点;
根据所述二维特征点和所述三维点计算摄像机的绝对姿态;
根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型。
可选的,所述计算任意两个所述特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系,具体包括:
根据海明距离度量两个特征描述子之间的置信度;
根据并查集算法计算所述两个特征描述子的特征匹配关系。
可选的,所述根据所述特征匹配关系和所述深度图像,将所述二维特征点反投影到相机坐标系下,获取三维点,具体包括:
根据Xi=K-1λxi计算所述三维点;其中,Xi表示相机坐标系下的三维点,K表示摄像机的内部参数,λ表示三维点的深度,xi表示二维特征点。
可选的,所述根据所述二维特征点和所述三维点计算摄像机的绝对姿态,具体包括:采用迭代优化方法计算摄像机的绝对姿态。
可选的,所述根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型,具体包括:
可选的,所述多视图三维重建方法还包括:
对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型。
可选的,所述对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型,具体包括:
采用集束优化方法对初始点云模型进行优化,根据摄像机与三维点之间的稀疏性对集束调整问题进行稀疏分解;
根据(U-WV-1WT)Δci=rci-WV-1rmi求解摄像机的增量参数Δci;
其中,U和V表示分块对角矩阵;W表示对称矩阵;WT表示对称矩阵的转置;rci表示摄像机的反投影误差;rmi表示三维点的反投影误差;
根据反代法根据Δmi=V-1(rmi-WTΔci)求解出三维点的参数增量Δmi,反复迭代上述计算过程直到算法收敛;
其中,V-1表示可逆的分块对角矩阵;rmi表示三维点的反投影误差;WT表示对称矩阵的转置;Δci表示摄像机的增量参数。
可选的,所述特征点检测算法采用ORB算法。
本发明还提供了如下方案:
一种面向深度相机的多视图三维重建系统,所述三维重建系统包括:
图像获取单元,用于从深度相机的不同角度获取真实场景的多对图像,每对图像包括同一角度的彩色图像和深度图像;
特征匹配关系获取单元,用于根据特征点检测算法获取各所述彩色图像上的二维特征点和所述二维特征点对应的特征描述子,计算任意两个所述彩色图像分别对应的特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系;
三维点获取单元,用于根据各所述特征匹配关系及对应的深度图像,获取对应的三维图像,将所述二维特征点反投影到相机坐标系下,获取所述三维图像上的三维点;
绝对姿态获取单元,用于根据所述二维特征点和所述三维点计算摄像机的绝对姿态;
初始三维模型获取单元,用于根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型。
可选的,所述三维重建系统还包括:
模型优化单元,用于对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供一种面向深度相机的多视图三维重建方法和系统,将二维特征点反投影到摄像机坐标系下,获得三维点,根据摄像机的相对运动原理,将众多的三维点映射到统一坐标系下,获得初始三维模型,避免以手工为主的主动式的误差较大的三维建模方法,提高三维模型重建的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1面向深度相机的多视图三维重建方法流程图;
图2为本发明实施例1面向深度相机的多视图三维重建系统结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种面向深度相机的多视图三维重建方法和系统,能够从深度相机采集的图像序列中恢复出高精度的三维场景模型。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
一种面向深度相机的多视图三维重建方法,所述多视图三维重建方法包括:
步骤101:根据深度相机从不同角度获取真实场景的多对图像,每对图像包括同一角度的彩色图像和深度图像;
具体的,彩色图像记为:I1,I2,...,In;深度图像记为:d1,d2,...dn;深度相机采用Microsoft Kinect1、Kinect2、ASUS Xtion Pro、Intel RealSense和Structure IO;同时在采集数据的过程中,保持深度相机的匀速运动,避免深度相机的抖动造成图像的模糊,从而影响三维重建的质量。
步骤102:根据特征点检测算法获取各所述彩色图像上的二维特征点和所述二维特征点对应的特征描述子,计算任意两个所述彩色图像分别对应的特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系;
具体的,对于给定的输入图像I1,使用ORB算法检测出图像I1中包含的特征点和计算对应的特征描述子;重复此过程,直到输入图像集合I1,I2,...,In中的每个图像均被处理完毕;因此,可以获得每一幅图像对应的特征点集合和描述子集合。对于图像描述子,采用海明距离计算任意两个特征描述子之间的置信度,根据并查集算法计算所述两个特征描述子的特征匹配关系。
步骤103:根据各所述特征匹配关系及对应的深度图像,获取对应的三维图像,将所述二维特征点反投影到相机坐标系下,获取所述三维图像上的三维点;
具体的,根据摄像机的成像原理:λixi=KXi可知,三维点Xi的计算方法为:Xi=K-1λixi,其中λi表示三维点Xi的深度,K表示相机的内部参数矩阵,其计算方法如下:
其中,f表示以像素为单位的摄像机焦距。
步骤104:根据所述二维特征点和所述三维点计算摄像机的绝对姿态;
对于给定的二维点和三维点集合(x,X),摄像机绝对姿态估计的目的是寻找相应的旋转矩阵R和平移向量t,使得能够将世界坐标系下的三维点X映射到图像坐标系下的二维点x,根据摄像机成像原理可知,xi和Mi之间的投影关系可被定义为:
λimi=K(RMi+t) (1)
对于给定的二维点xi,连接摄像机的中心与xi可以形成向量vi,向量vi的核空间是一个二维的坐标系统,可以表示为u和v。由核空间的性质可知,向量vi垂直于u和v,因此,向量vi的核空间的计算方法如式(2)所示。
为了便于描述问题,定义向量vi与它的核空间kernel(vi)之间的运算关系,如式(3)所示。
由于在数值上向量vi的模长与mi相等,因此,将mi带入式(3)可以获得式(4)。
此外,当λi≠0时,由式(1)可以获得式(5)。
将式(5)代入式(4)可以获得式(6)。
记R表示旋转矩阵,
t表示平移向量。
t=[t1 t2 t3]T (8)
将式(7)和(8)代入式(6)并展开,可以获得两个独立的方程,分别如式(9)和(10)所示。
为了计算摄像机绝对姿态信息,采用向量x表示所求未知参数的值,如式(11)所示。
x=[r11 r12 … r33 t1 t2 t3] (11)
对于给定的N个二维点和三维点对,由式(9)和(10)可以获得如式(12)所示的其次方程。
Ax=0 (12)
其中,A是2N×12的系数矩阵。
为了获得方程Ax=0的最优解,采用奇异值分解方法计算向量x的值,因此,为了处理矩阵的过约束问题,令H=ATA,然后对矩阵P进行奇异值分解,计算方法如式(13)所示。
H=UDVT (13)
将向量Vi T的最后3个元素作为摄像机平移向量的初值,结果如式(15)所示。
步骤105:根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型。
具体的,根据摄像机的相对运动原理,根据Rk=RkjRji…R0,tk=tkjtji…t0,将所述三维点映射到相机坐标系下;其中,Rkj表示第k个图像相对于第j幅图像的旋转矩阵,tkj表示第k幅图像相对于第j幅图像的平移向量,表示第i个三维点在相机坐标系(g,k)下的位置;根据计算初始三维模型,其中N表示输入图像数目。
对所述初始三维模型进行优化,能够进一步提高三维模型重建的精度,获取与真实场景具有几何一致性的三维模型。
具体的,对于给定的摄像机参数和三维点,鲁棒的集束调整方程如下:
其中,Xi,j表示第i个摄像机下可见的第j个三维点,xi,j表示Xi,j在图像上的投影点,H(·)表示Huber损失函数。
集束调整的目的是使得E最小,最小化表达形式为:
其中,r(P)=F(P)-x,F(x)=Ki[Ri|ti]Xi,j表示P的投影函数,P为参数向量。
首先计算函数F(P)在点P处的一阶泰勒展开式,如式(18)所示。
F(P+Δ)=F(P)+JΔ (18)
令Pi+1=Pi+Δi,由式(18)可知:
F(Pi+1)-x=F(Pi)+JΔi-x (19)
由于F(Pi)-x=ri,因此可以得出式(20)。
ri+1=F(Pi+1)-x=ri+JΔi (20)
令ri+JΔi=0,可以获得式(22)。
JΔi=-ri (22)
根据LM算法,对式(22)进行变换,获得式(23)所示的正态方程。
(JTJ+λdiag(JTJ))Δi=-JTri (23)
至此,可知求解参数向量P的前提是获得每次的迭代增量Δi。因此,由以上分析可知,集束调整的目标是求解如式(23)所示的正态方程的解。
根据非线性最小二乘原理,展开式(23)可以获得式(24)和(25)。
(U-WV-1WT)Δci=rci-WV-1rmi (24)
其中,U和V表示分块对角矩阵;W表示对称矩阵;WT表示对称矩阵的转置rci表示摄像机的反投影误差;rmi表示三维点的反投影误差;Δci表示摄像机的增量值;
Δmi=V-1(rmi-WTΔci) (25)
其中V-1表示可逆的分块对角矩阵;rmi表示三维点的反投影误差;WT表示对称矩阵的转置;Δci表示摄像机的增量值;Δmi表示三维点的增量值。
在三维重建中,根据摄像机与三维点之间的稀疏性对集束调整问题进行稀疏分解,可以将式(23)转化为求解式(24所表示的小规模的正态方程的解。当求解出摄像机的增量参数Δci,采用反代法将Δci代入式(25)即可求解出三维点的参数增量Δmi,反复迭代上述计算过程直到算法收敛,即可实现三维模型的优化,重建更高精度的三维模型。
本发明还提供了如下方案:
一种面向深度相机的多视图三维重建系统,所述三维重建系统包括:
图像获取单元201,用于从深度相机的不同角度获取真实场景的多对图像,每对图像包括同一角度的彩色图像和深度图像;
特征匹配关系获取单元202,用于根据特征点检测算法获取各所述彩色图像上的二维特征点和所述二维特征点对应的特征描述子,计算任意两个所述彩色图像分别对应的特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系;
三维点获取单元203,用于根据各所述特征匹配关系及对应的深度图像,获取对应的三维图像,将所述二维特征点反投影到相机坐标系下,获取所述三维图像上的三维点;
绝对姿态获取单元204,用于根据所述二维特征点和所述三维点计算摄像机的绝对姿态;
初始三维模型获取单元205,用于根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型。
所述三维重建系统还包括:
模型优化单元,用于对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种面向深度相机的多视图三维重建方法,其特征在于,所述多视图三维重建方法包括:
根据深度相机从不同角度获取真实场景的多对图像,每对图像包括同一角度的彩色图像和深度图像;
根据特征点检测算法获取各所述彩色图像上的二维特征点和所述二维特征点对应的特征描述子,所述特征点检测算法采用ORB算法;
计算任意两个所述彩色图像分别对应的特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系;
根据各所述特征匹配关系及对应的深度图像,获取对应的三维图像,将所述二维特征点反投影到相机坐标系下,获取所述三维图像上的三维点;
根据所述二维特征点和所述三维点计算摄像机的绝对姿态;
根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型;
对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型,具体包括:
采用集束优化方法对初始点云模型进行优化,根据摄像机与三维点之间的稀疏性对集束调整问题进行稀疏分解;
根据(U-WV-1WT)Δci=rci-WV-1rmi求解摄像机的增量参数Δci;
其中,U和V表示分块对角矩阵;W表示对称矩阵;WT表示对称矩阵的转置;rci表示摄像机的反投影误差;rmi表示三维点的反投影误差;
根据反代法公式Δmi=V-1(rmi-WTΔci)求解出三维点的参数增量Δmi,反复迭代上述计算过程直到算法收敛;
其中,V-1表示可逆的分块对角矩阵;rmi表示三维点的反投影误差;WT表示对称矩阵的转置;Δci表示摄像机的增量参数。
2.根据权利要求1所述面向深度相机的多视图三维重建方法,其特征在于,所述计算任意两个所述特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系,具体包括:
根据海明距离度量两个特征描述子之间的置信度;
根据并查集算法计算所述两个特征描述子的特征匹配关系。
3.根据权利要求1所述面向深度相机的多视图三维重建方法,其特征在于,所述根据所述特征匹配关系和所述深度图像,将所述二维特征点反投影到相机坐标系下,获取三维点,具体包括:
根据Xi=K-1λxi计算所述三维点;其中,Xi表示相机坐标系下的三维点,K表示摄像机的内部参数,λ表示三维点的深度,xi表示二维特征点。
4.根据权利要求1所述面向深度相机的多视图三维重建方法,其特征在于,所述根据所述二维特征点和所述三维点计算摄像机的绝对姿态,具体包括:采用迭代优化方法计算摄像机的绝对姿态。
6.根据权利要求1所述面向深度相机的多视图三维重建方法,其特征在于,所述多视图三维重建方法还包括:
对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型。
7.一种面向深度相机的多视图三维重建系统,其特征在于,所述三维重建系统包括:
图像获取单元,用于从深度相机的不同角度获取真实场景的多对图像,每对图像包括同一角度的彩色图像和深度图像;
特征匹配关系获取单元,用于根据特征点检测算法获取各所述彩色图像上的二维特征点和所述二维特征点对应的特征描述子,计算任意两个所述彩色图像分别对应的特征描述子之间的置信度,获取所述两个特征描述子的特征匹配关系,所述特征点检测算法采用ORB算法;
三维点获取单元,用于根据各所述特征匹配关系及对应的深度图像,获取对应的三维图像,将所述二维特征点反投影到相机坐标系下,获取所述三维图像上的三维点;
绝对姿态获取单元,用于根据所述二维特征点和所述三维点计算摄像机的绝对姿态;
初始三维模型获取单元,用于根据所述摄像机的绝对姿态,将所述三维点映射到所述相机坐标系下,获取场景的初始三维模型;
初始三维模型优化单元,用于对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型,具体的,用于采用集束优化方法对初始点云模型进行优化,根据摄像机与三维点之间的稀疏性对集束调整问题进行稀疏分解;
根据(U-WV-1WT)Δci=rci-WV-1rmi求解摄像机的增量参数Δci;
其中,U和V表示分块对角矩阵;W表示对称矩阵;WT表示对称矩阵的转置;rci表示摄像机的反投影误差;rmi表示三维点的反投影误差;
根据反代法公式Δmi=V-1(rmi-WTΔci)求解出三维点的参数增量Δmi,反复迭代上述计算过程直到算法收敛;
其中,V-1表示可逆的分块对角矩阵;rmi表示三维点的反投影误差;WT表示对称矩阵的转置;Δci表示摄像机的增量参数。
8.根据权利要求7所述的面向深度相机的多视图三维重建系统,其特征在于,所述三维重建系统还包括:
模型优化单元,用于对所述初始三维模型进行优化,获取与真实场景具有几何一致性的三维模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711283596.0A CN108038902B (zh) | 2017-12-07 | 2017-12-07 | 一种面向深度相机的高精度三维重建方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711283596.0A CN108038902B (zh) | 2017-12-07 | 2017-12-07 | 一种面向深度相机的高精度三维重建方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108038902A CN108038902A (zh) | 2018-05-15 |
CN108038902B true CN108038902B (zh) | 2021-08-27 |
Family
ID=62096162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711283596.0A Active CN108038902B (zh) | 2017-12-07 | 2017-12-07 | 一种面向深度相机的高精度三维重建方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108038902B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111699445B (zh) * | 2018-07-13 | 2022-10-11 | 深圳配天智能技术研究院有限公司 | 机器人运动学模型优化方法、系统和存储装置 |
CN109141364B (zh) * | 2018-08-01 | 2020-11-03 | 北京进化者机器人科技有限公司 | 障碍物检测方法、系统及机器人 |
CN110826357B (zh) | 2018-08-07 | 2022-07-26 | 北京市商汤科技开发有限公司 | 对象三维检测及智能驾驶控制的方法、装置、介质及设备 |
CN109300153A (zh) * | 2018-09-04 | 2019-02-01 | 苏州大学 | 一种多台Xtion传感器协同扫描的三维重建系统及方法 |
CN110942479B (zh) * | 2018-09-25 | 2023-06-02 | Oppo广东移动通信有限公司 | 虚拟对象控制方法、存储介质及电子设备 |
CN110706280A (zh) * | 2018-09-28 | 2020-01-17 | 成都家有为力机器人技术有限公司 | 基于2d-slam的轻量级语义驱动的稀疏重建方法 |
CN109215120A (zh) * | 2018-10-08 | 2019-01-15 | 中国传媒大学南广学院 | 一种绿色植被的三维重建模型优化方法及装置 |
CN109741375B (zh) * | 2018-11-06 | 2020-12-04 | 三亚中科遥感研究所 | 一种裸眼3d模型光场生成方法及其装置 |
CN111815755B (zh) * | 2019-04-12 | 2023-06-30 | Oppo广东移动通信有限公司 | 虚拟物体被遮挡的区域确定方法、装置及终端设备 |
CN110070571B (zh) * | 2019-04-28 | 2020-10-16 | 安徽农业大学 | 一种基于深度相机的毛竹形态参数检测方法 |
CN110570525B (zh) * | 2019-08-15 | 2022-05-13 | 同济大学 | 增强现实系统中三维扫描坐标与投影坐标快速匹配的方法 |
CN110766800B (zh) * | 2019-10-15 | 2023-03-14 | 西安电子科技大学 | 基于空间三点对齐的重建模型注册方法 |
CN111161355B (zh) * | 2019-12-11 | 2023-05-09 | 上海交通大学 | 多视图相机位姿和场景的纯位姿解算方法及系统 |
CN112164258A (zh) * | 2019-12-26 | 2021-01-01 | 昆山时记信息科技有限公司 | Ar智慧教学方法、装置、教具系统和计算机设备 |
CN111210507B (zh) * | 2020-01-06 | 2024-03-19 | 合肥工业大学 | 一种面向多视图三维重建的初始视图选取方法 |
CN111260776B (zh) * | 2020-02-07 | 2023-04-18 | 山西大学 | 一种自适应正态分析的三维形貌重建方法 |
CN112435206B (zh) * | 2020-11-24 | 2023-11-21 | 北京交通大学 | 利用深度相机对物体进行三维信息重建的方法 |
CN112261399B (zh) * | 2020-12-18 | 2021-03-16 | 安翰科技(武汉)股份有限公司 | 胶囊内窥镜图像三维重建方法、电子设备及可读存储介质 |
CN113409384B (zh) * | 2021-08-17 | 2021-11-30 | 深圳市华汉伟业科技有限公司 | 一种目标物体的位姿估计方法和系统、机器人 |
CN113643328B (zh) * | 2021-08-31 | 2022-09-09 | 北京柏惠维康科技股份有限公司 | 标定物的重建方法、装置、电子设备及计算机可读介质 |
CN114399421A (zh) * | 2021-11-19 | 2022-04-26 | 腾讯科技(成都)有限公司 | 三维模型可见度数据的存储方法、装置、设备及存储介质 |
CN116156329B (zh) * | 2023-02-21 | 2023-07-07 | 中国铁塔股份有限公司黑龙江省分公司 | 基于图像分析的黑土地退化快速监测方法、存储介质及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9700284B2 (en) * | 2013-11-13 | 2017-07-11 | Siemens Medical Solutions Usa, Inc. | Three-dimensional ultrasound reconstruction with confidence information |
CN105023275B (zh) * | 2015-07-14 | 2018-08-28 | 清华大学 | 超分辨率光场采集装置及其的三维重建方法 |
CN105374019B (zh) * | 2015-09-30 | 2018-06-19 | 华为技术有限公司 | 一种多深度图融合方法及装置 |
CN107170042B (zh) * | 2017-06-19 | 2019-06-04 | 电子科技大学 | 一种无序图像的多视立体匹配的三维重建方法 |
-
2017
- 2017-12-07 CN CN201711283596.0A patent/CN108038902B/zh active Active
Non-Patent Citations (1)
Title |
---|
Large-Scale Bundle Adjustment by Parameter Vector Partition;Shanmin Pang等;《ACCV 2012》;20131231;第26-39页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108038902A (zh) | 2018-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038902B (zh) | 一种面向深度相机的高精度三维重建方法和系统 | |
Han et al. | Reconstruction of a scene with multiple linearly moving objects | |
CN105913489B (zh) | 一种利用平面特征的室内三维场景重构方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
US8953847B2 (en) | Method and apparatus for solving position and orientation from correlated point features in images | |
CN109146935B (zh) | 一种点云配准方法、装置、电子设备及可读存储介质 | |
CN108280858B (zh) | 多视图重建中的一种线性全局相机运动参数估计方法 | |
Zheng et al. | Minimal solvers for 3d geometry from satellite imagery | |
CN111830504B (zh) | 基于序贯融合因式分解的序列isar三维成像方法 | |
Malti | On the exact recovery conditions of 3D human motion from 2D landmark motion with sparse articulated motion | |
CN108921904B (zh) | 利用单个球及渐近线的性质标定针孔摄像机的方法 | |
Arrigoni et al. | Robust global motion estimation with matrix completion | |
CN109785393B (zh) | 一种基于平面运动约束的相机自标定方法 | |
Oskarsson | Two-view orthographic epipolar geometry: Minimal and optimal solvers | |
Hassanpour et al. | Camera auto-calibration using a sequence of 2D images with small rotations and translations | |
CN109191528B (zh) | 利用球像与圆环点极线的性质标定针孔摄像机的方法 | |
Wang et al. | Robust rank-4 affine factorization for structure from motion | |
Chen et al. | 3D reconstruction of spatial non cooperative target based on improved traditional algorithm | |
Ly et al. | Translation estimation for single viewpoint cameras using lines | |
Ming et al. | A real-time monocular visual SLAM based on the bundle adjustment with adaptive robust kernel | |
CN111242995A (zh) | 一种快速鲁棒的摄像机绝对姿态估计方法 | |
Boufama et al. | Three-dimensional structure calculation: achieving accuracy without calibration | |
CN115100535B (zh) | 基于仿射相机模型的卫星遥感图像快速重建方法及装置 | |
Junmin et al. | Robot pose estimation and accuracy analysis based on stereo vision | |
Sung et al. | Multi-scale descriptor for robust and fast camera motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |