CN110580720A - 一种基于全景图的相机位姿估计方法 - Google Patents

一种基于全景图的相机位姿估计方法 Download PDF

Info

Publication number
CN110580720A
CN110580720A CN201910809984.0A CN201910809984A CN110580720A CN 110580720 A CN110580720 A CN 110580720A CN 201910809984 A CN201910809984 A CN 201910809984A CN 110580720 A CN110580720 A CN 110580720A
Authority
CN
China
Prior art keywords
picture
dimensional
camera
points
pictures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910809984.0A
Other languages
English (en)
Other versions
CN110580720B (zh
Inventor
万亮
韩慧娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201910809984.0A priority Critical patent/CN110580720B/zh
Publication of CN110580720A publication Critical patent/CN110580720A/zh
Application granted granted Critical
Publication of CN110580720B publication Critical patent/CN110580720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种基于全景图的相机位姿估计方法,使用全景图作为输入数据。先对每一张全景图进行特征检测提取,之后两两图像进行特征点匹配;利用匹配特征点的数量,对图片序列进行排序,选择初始化的两张图片,根据对极几何的关系,估计本质矩阵E后分解得到相机位姿的旋转矩阵R和平移向量t;再添加一张新的图片,根据重投影的关系估计新添加的图片的相机位姿R和t;最后,所有图片添加完成后,进行全局的相机位姿和三维特征点的捆绑调整优化,得到最优解。与现有技术相比,本发明对于图像序列是一系列顺序的序列以及网状序列的图像的相机位姿都可以近似求得,即得到的相机位姿的序列与原始图像序列近似。

Description

一种基于全景图的相机位姿估计方法
技术领域
本发明涉及于计算机视觉三维重建技术领域,特别涉及一种利用图像进行增量式的运动恢复结构(Structure-from-Motion)来实现全景图的相机位姿估计的方法。
背景技术
获取全景或者球形全景图已成为场景记录和可视化的常见做法,并且与使用鱼眼镜头的标准全向摄像机或使用曲面镜的折反射系统相比,球面成像不仅限于半球形视场,而是从空间中的单个点捕获360°×180°全景的完整场景。因此,一张全景视图获得的场景信息比一张传统的平面图像多,若使用全景图进行场景的重建,可能利用少数几张全景图重建的场景信息就比使用大量平面图像重建的场景信息多。另外,360°全景视频在近几年也是获得了巨大的普及,与传统视频相比,它可以获得更大的沉浸感,因为在播放期间选择和改变虚拟的观看方向的时候,较传统窄视场相机拍摄的视频,改变其观看方向更不容易迷失方向,然而进行此虚拟方向的改变前提是先要确定全景视频中每一帧图片所代表相机的位姿,意即解决全景视频的稳定问题,这其中涉及的重要的技术步骤就是求解全景图的相机位姿。
在平面领域,估计相机位姿有三类方法:第一种,使用单目相机得到了两幅二维图像,应用二维与二维之间的对极几何关系求得相机的位姿;第二种,若用双目相机能得到二维图像与三维信息之间的对应关系,转换成了PnP问题,也可以求得相机位姿;第三种,采用运动恢复结构这一思路,利用二维平面与二维平面对极几何信息,以及二维平面与三维信息之间的关系得到相机位姿。这些方法提出了很多实用性的估计相机位姿的方法。
在全景图领域,第一种方法,针对球形全景图像的方向和位置的恢复(Kangni andR.Laganire.Orientation andpose recovery from spherical panoramas.In OMNIVIS,2007),将球形全景图投影到立方体上,通过计算两两立方体之间的本质矩阵得到相机位姿,应用了室内场景和室外场景的数据信息,对立方体全景图进行对齐,使用其写的算法将不同方向的图像都转换到了同一方向;该方法存在一些问题,如仅仅估计两两相邻的立方体全景图之间的位置关系没有考虑到全局的立方体全景图,可能会有误差的累积;还有只通过2D信息的对应求相机位姿,可能结果不是最优的。第二种方法,使用球形全景图结合运动恢复结构的方法重建出场景(A.Pagani and D.Stricker,“Structure from motionusing full spherical panoramic cameras,”in Proc.OMNIVIS,Nov.2011,pp.375–382.),研究着重在误差估计模型,但对于相机位姿这方面没有着重研究比较,只是最后偏重于场景的重建,难以看到对于相机位姿的估计是否良好。第三种方法,应用球形视频进行研究(Hao Guan,William A.P.Smith.Structure-From-Motion in spherical VideoUsing the von Mises-Fisher Distribution.In IEEE TRANSACTIONS ON IMAGEPROCESSING,VOL.26,NO.2,2017.),对每一帧图像加入了特征噪点分布,得到了一个新的球形全景图相机模型,并且使用了新的目标函数以及约束条件贯穿于整个优化过程中。但问题是球形视频是一些有序的图片帧,图像之间改变较少,如果使用一些差别很大的图像或者是一些无序图像,不确定此算法是否能够得到很好的结果。
发明内容
本发明旨在提出一种基于全景图的相机位姿估计方法,实现了相机位姿的序列的估计。
本发明的一种基于全景图的相机位姿估计方法,该方法包括以下步骤:
步骤1、特征提取:利用ASIFT算法,提取作为输入数据的每一张全景图上的特征点信息;特征点信息包括图中二维特征点的坐标值和此特征点的描述子,描述子是表示特征点的方向信息;
步骤2、特征匹配:对作为输入数据的全景图进行两两组合匹配特征点,匹配方法是利用特征点的描述子,遍历两张图中每一个特征点,使用特征点的描述子进行点积运算,若得到的点积结果小于预设的阈值,则认为两个特征点近似相似,即为匹配特征点对,保存结果;
步骤3,估计所选取的两张初始化的全景图的相机位姿,两张初始化的全景图的选取策略为:根据每一张图与其他图的匹配特征点的总数量,从大到小排列图片,选择匹配特征点数量最多的图片作为第一张图片,之后从剩下的图片中选择与确定的第一张图片匹配特征点数量最多的图片,作为第二张图片;利用两张全景视图之间的对极几何关系计算本质矩阵E(Essential Matrix),公式如下:
x1 TEx2=0
其中,x1和x2分别表示两张初始图中的匹配特征点对的二维坐标,T表示x1坐标的转置,E表示本质矩阵;
分解本质矩阵E得到旋转矩阵R和平移向量t,R和t表示的就是相机的位姿,其中旋转矩阵R和平移向量t的结果表示为如下公式:
其中,旋转矩阵R中的参数表示相机中心绕世界坐标系中x、y、z坐标轴之后得到的数据,平移向量t中参数表示相机中心对应于世界坐标系下x、y、z坐标轴的数据;
利用二维特征点射线与相机坐标系下的三维特征点射线重合的关系,恢复空间中的三维特征点X,其中得到的是三维特征点X在世界坐标系中三维坐标表示,公式如下:
x·(RX+t)=0
其中,x表示二维特征点的坐标,X表示未知的世界坐标系下的三维特征点坐标,R表示旋转矩阵,t表示平移向量;
步骤4、估计新添加的全景图的相机位姿:添加新的一张图片的策略是根据比率r来对剩下的图片序列进行排序,计算剩下每一张图片的比率r,然后从小到大排列r,每一个比率r对应着一张图片的序号,就相当于对图片序号进行了排序,比率r表达式如下:
得到图片序列后,按照顺序每添加一张图片,就要估计此张图片的相机位姿,同样利用二维特征点射线与相机坐标系下的三维特征点射线重合的关系,计算位姿,公式如下:
x·(RX+t)=0
其中,未知数是旋转矩阵R和平移向量t,X表示新添加图片中的二维特征点,利用此二维特征点恢复出空间中三维特征点,构造线性方程组,重新求得旋转矩阵R和平移向量t,它们分别表示如下:
x1=(a,b,c)T,x2=(m,n,p)T,X=(X,Y,Z)T
利用已知参数和公式(4)构造线性方程组,部分线性方程组的表达式如下:
(-cR21+bR31)X+(-cR22+bR32)Y+(-cR23+bR33)Z+(-ct2+bt3)=0
(cR11-aR31)X+(cR12-aR32)Y+(cR13-aR33)Z+(ct1-at3)=0
(-pR21+nR31)X+(-pR22+nR32)Y+(-pR23+nR33)Z+(-pt2+nt3)=0
(cp-mR31)X+(pR12-mR3)Y+(pR13-mR33)Z+(pt1-mt3)=0
……
其中,T表示坐标的转置,a,b,c,m,n,p,X,Y,Z表示坐标值;
步骤5,对估计到的所有图片的相机位姿和三维特征点坐标进行捆绑调整优化:捆绑调整优化的目的是最小化重投影误差,球面两点之间弧线对应的切平面上两点之间的直线距离作为误差距离d来近似估计,误差距离d用如下公式计算:
其中,m表示原始二维特征点的二维坐标,M表示二维特征点对应的三维特征点坐标,||·||表示向量的2-范数,T表示二维坐标的转置;
得到初始化的两张全景图的位姿后,加上部分恢复出的三维特征点,先进行一次捆绑调整优化,保证初始值的误差尽可能减小,之后每添加一张图片,进行一次捆绑调整优化,直至最后当所有图片添加成功,进行最后全局的优化调整。
与现有技术相比,本发明所能达到的积极技术效果如下:
(1)对于图像序列是一系列顺序的序列以及网状序列的图像的相机位姿都可以近似求得,即得到的相机位姿的序列与原始图像序列近似;
(2)有可视化的界面,可以看到经过计算得到的图像序列的相机位姿序列,以及恢复出的三维稀疏点云。
附图说明
图1为球形全景图的相机位姿模型图示;
图2为优化重投影误差时计算误差示意图;
图3为本发明的一种基于全景图的相机位姿估计方算法流程图;
图4为本发明实施例得到的全景图的相机位姿结果示意图;
图5为本发明实施例得到的重建场景中的稀疏三维特征点云图。
具体实施方式
下面结合附图和实施例对本发明作进一步的说明。
如图3所示,为本发明的一种基于全景图的相机位姿估计方法流程图。改变以往使用传统平面图像作为输入数据的流程,而使用全景图作为输入数据,具体包括以下步骤:
步骤1、特征提取:利用ASIFT算法,提取作为输入数据的每一张全景图上的特征点信息;特征点信息包括图中二维特征点的坐标值和此特征点的描述子,描述子是表示特征点的方向信息;
步骤2、特征匹配:对作为输入数据的全景图进行两两组合匹配特征点,匹配方法是利用特征点的描述子,遍历两张图中每一个特征点,使用特征点的描述子进行点积运算,若得到的点积结果小于预设的阈值,则认为两个特征点近似相似,即为匹配特征点对,保存结果。另外,因为提取的特征点数量很多,遍历每一个特征点并做点积运算很耗费时间,这里使用了GPU进行加速,缩短了特征匹配的时间。
步骤3,估计所选取的两张初始化的全景图的相机位姿,两张初始化的全景图的选取策略为:根据每一张图与其他图的匹配特征点的总数量,从大到小排列图片,选择匹配特征点数量最多的图片作为第一张图片,之后从剩下的图片中选择与确定的第一张图片匹配特征点数量最多的图片,作为第二张图片;利用两张全景视图之间的对极几何关系计算本质矩阵E(Essential Matrix),公式如下:
x1 TEx2=0
其中,x1和x2分别表示两张初始图中的匹配特征点对的二维坐标,T表示x1坐标的转置,E表示本质矩阵。在计算本质矩阵E时候用到了随机采样一致算法(RANSAC),估计了一个最佳的本质矩阵E模型。分解本质矩阵E得到了旋转矩阵R和平移向量t,R和t表示的就是相机的位姿。这里需要解释的是,正常结果应该是两张图求解得到两组解,但是本质矩阵E求解的是两张图之间的相对关系,相对关系表示一张图相对另一张图的位置的变换,所以只有一组解,而另一组解默认旋转矩阵为单位矩阵,平移向量为零向量;
得到了两张全景图代表的相机的位姿,利用二维特征点射线与相机坐标系下的三维特征点射线重合的关系,恢复空间中的三维特征点坐标X,公式如下:
x·(RX+t)=0
其中,x表示二维特征点的坐标,X表示未知的世界坐标系下的三维特征点坐标,R表示旋转矩阵,t表示平移向量;
步骤4、估计新添加的全景图的相机位姿:添加新的一张图片的策略是根据比率r,从大到小排列剩下的图片序列,计算剩下每一张图片的比率r,然后从小到大排列r,每一个比率r对应着一张图片的序号,就相当于对图片序号进行了排序,比率r表达式如下:
得到图片序列后,按照顺序每添加一张图片,就要估计此张图片的相机位姿,同样利用二维特征点射线与相机坐标系下的三维特征点射线重合的关系,计算位姿,公式如下:
x·(RX+t)=0
其中,未知数是旋转矩阵R和平移向量t,X表示新添加的图片中的二维特征点,此二维特征点是与恢复先前三维特征点的匹配对匹配的特征点,即利用此二维特征点也可以恢复出空间中三维特征点,X是前一步恢复出的三维特征点,此三维特征点是能被新添加的图片观察到的。构造线性方程组,重新求得旋转矩阵R和平移向量t,它们分别表示如下:
x1=(a,b,c)T,x2=(m,n,p)T,X=(X,Y,Z)T
利用已知参数和公式(4)构造线性方程组,部分线性方程组的表达式如下:
(-cR21+bR31)X+(-cR22+bR32)Y+(-cR23+bR33)Z+(-ct2+bt3)=0
(cR11-aR31)X+(cR12-aR32)Y+(cR13-aR33)Z+(ct1-at3)=0
(-pR21+nR31)X+(-pR22+nR32)Y+(-pR23+nR33)Z+(-pt2+nt3)=0
(cp-mR31)X+(pR12-mR3)Y+(pR13-mR33)Z+(pt1-mt3)=0
……
其中,T表示坐标的转置,a,b,c,m,n,p,X,Y,Z表示坐标值。
步骤5,对估计到的所有图片的相机位姿和三维特征点坐标进行捆绑调整优化(BundleAdjustment):捆绑调整优化的目的是最小化重投影误差,将全景图投影到球体上,这里重投影误差是利用球面两点之间弧线对应的切平面上两点之间的直线距离来近似估计,如图2所示,m表示原始二维特征点,m′表示三维特征点重投影到球面上的二维特征点,M表示空间中的三维特征点,重投影误差就是m与m′之间的距离d。注意图中为了清楚表示将误差距离放大了。这段误差距离d用如下公式计算:
其中,m表示原始二维特征点二维坐标,M表示二维特征点对应的三维特征点的三维特征点坐标,||·||表示向量的2-范数,T表示二维坐标的转置;
得到初始化的两张全景图的位姿后,加上部分恢复出的三维特征点,先进行一次捆绑调整优化,保证初始值的误差尽可能减小;之后,每添加一张图片,进行一次捆绑调整优化;直至最后当所有图片添加成功,进行最后全局的优化调整。
如图4所示,本发明实施例得到的全景图的相机位姿结果示意图。展示了原始序列与估计得到的图像相机序列,(4a)中的标志序列表示原始相机序列,(4b)中的标志序列表示估计得到的图像相机序列。
利用输入的全景图序列可以构建重建场景,此场景由稀疏点云构成,如图5所示,为本发明实施例得到的重建场景中的稀疏三维特征点云图。位于图上方的12张缩略图是采集的图像,图下方的稀疏点云就是根据图像中的二维特征点恢复出来的三维特征点。

Claims (1)

1.一种基于全景图的相机位姿估计方法,其特征在于,该方法包括以下步骤:
步骤1、特征提取:利用ASIFT算法,提取作为输入数据的每一张全景图上的特征点信息;特征点信息包括图中二维特征点的坐标值和此特征点的描述子,描述子是表示特征点的方向信息;
步骤2、特征匹配:对作为输入数据的全景图进行两两组合匹配特征点,匹配方法是利用特征点的描述子,遍历两张图中每一个特征点,使用特征点的描述子进行点积运算,若得到的点积结果小于预设的阈值,则认为两个特征点近似相似,即为匹配特征点对,保存结果;
步骤3,估计所选取的两张初始化的全景图的相机位姿,两张初始化的全景图的选取策略为:根据每一张图与其他图的匹配特征点的总数量,从大到小排列图片,选择匹配特征点数量最多的图片作为第一张图片,之后从剩下的图片中选择与确定的第一张图片匹配特征点数量最多的图片,作为第二张图片;利用两张全景视图之间的对极几何关系计算本质矩阵E(Essential Matrix),公式如下:
x1 TEx2=0
其中,x1和x2分别表示两张初始图中的匹配特征点对的二维坐标,T表示x1坐标的转置,E表示本质矩阵;
分解本质矩阵E得到旋转矩阵R和平移向量t,R和t表示的就是相机的位姿,其中旋转矩阵R和平移向量t的结果表示为如下公式:
其中,旋转矩阵R中的参数表示相机中心绕世界坐标系中x、y、z坐标轴之后得到的数据,平移向量t中参数表示相机中心对应于世界坐标系下x、y、z坐标轴的数据;
利用二维特征点射线与相机坐标系下的三维特征点射线重合的关系,恢复空间中的三维特征点X,其中得到的是三维特征点X在世界坐标系中三维坐标表示,公式如下:
x·(RX+t)=0
其中,x表示二维特征点的坐标,X表示未知的世界坐标系下的三维特征点坐标,R表示旋转矩阵,t表示平移向量;
步骤4、估计新添加的全景图的相机位姿:添加新的一张图片的策略是根据比率r来对剩下的图片序列进行排序,计算剩下每一张图片的比率r,然后从小到大排列r,每一个比率r对应着一张图片的序号,就相当于对图片序号进行了排序,比率r表达式如下:
得到图片序列后,按照顺序每添加一张图片,就要估计此张图片的相机位姿,同样利用二维特征点射线与相机坐标系下的三维特征点射线重合的关系,计算位姿,公式如下:
x·(RX+t)=0
其中,未知数是旋转矩阵R和平移向量t,X表示新添加图片中的二维特征点,利用此二维特征点恢复出空间中三维特征点,构造线性方程组,重新求得旋转矩阵R和平移向量t,它们分别表示如下:
x1=(a,b,c)T,x2=(m,n,p)T,X=(X,Y,Z)T
利用已知参数和公式(4)构造线性方程组,部分线性方程组的表达式如下:
(-cR21+bR31)X+(-cR22+bR32)Y+(-cR23+bR33)Z+(-ct2+bt3)=0
(cR11-aR31)X+(cR12-aR32)Y+(cR13-aR33)Z+(ct1-at3)=0
(-pR21+nR31)X+(-pR22+nR32)Y+(-pR23+nR33)Z+(-pt2+nt3)=0
(cp-mR31)X+(pR12-mR3)Y+(pR13-mR33)Z+(pt1-mt3)=0
……
其中,T表示坐标的转置,a,b,c,m,n,p,X,Y,Z表示坐标值;
步骤5,对估计到的所有图片的相机位姿和三维特征点坐标进行捆绑调整优化:捆绑调整优化的目的是最小化重投影误差,球面两点之间弧线对应的切平面上两点之间的直线距离作为误差距离d来近似估计,误差距离d用如下公式计算:
其中,m表示原始二维特征点的二维坐标,M表示二维特征点对应的三维特征点坐标,||·||表示向量的2-范数,T表示二维坐标的转置;
得到初始化的两张全景图的位姿后,加上部分恢复出的三维特征点,先进行一次捆绑调整优化,保证初始值的误差尽可能减小,之后每添加一张图片,进行一次捆绑调整优化,直至最后当所有图片添加成功,进行最后全局的优化调整。
CN201910809984.0A 2019-08-29 2019-08-29 一种基于全景图的相机位姿估计方法 Active CN110580720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910809984.0A CN110580720B (zh) 2019-08-29 2019-08-29 一种基于全景图的相机位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910809984.0A CN110580720B (zh) 2019-08-29 2019-08-29 一种基于全景图的相机位姿估计方法

Publications (2)

Publication Number Publication Date
CN110580720A true CN110580720A (zh) 2019-12-17
CN110580720B CN110580720B (zh) 2023-05-12

Family

ID=68812104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910809984.0A Active CN110580720B (zh) 2019-08-29 2019-08-29 一种基于全景图的相机位姿估计方法

Country Status (1)

Country Link
CN (1) CN110580720B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325796A (zh) * 2020-02-28 2020-06-23 北京百度网讯科技有限公司 用于确定视觉设备的位姿的方法和装置
CN112419409A (zh) * 2020-11-18 2021-02-26 合肥湛达智能科技有限公司 一种基于实时视频的位姿估计方法
WO2021184218A1 (zh) * 2020-03-17 2021-09-23 华为技术有限公司 一种相对位姿标定方法及相关装置
CN113436230A (zh) * 2021-08-27 2021-09-24 中国海洋大学 增量式平移平均化方法、系统、设备
CN114066990A (zh) * 2020-07-31 2022-02-18 北京外号信息技术有限公司 基于二维图像的场景重建方法、电子设备及介质
CN114723796A (zh) * 2022-04-24 2022-07-08 北京百度网讯科技有限公司 一种三维点云生成方法、装置及电子设备
CN116934857A (zh) * 2023-07-17 2023-10-24 北京理工大学 一种基于全景图片的视觉定位方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103035008A (zh) * 2012-12-15 2013-04-10 北京工业大学 一种多相机系统的加权标定方法
WO2015096806A1 (zh) * 2013-12-29 2015-07-02 刘进 智能机姿态测定、全景影像生成及目标识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103035008A (zh) * 2012-12-15 2013-04-10 北京工业大学 一种多相机系统的加权标定方法
WO2015096806A1 (zh) * 2013-12-29 2015-07-02 刘进 智能机姿态测定、全景影像生成及目标识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王君;徐晓凤;董明利;孙鹏;陈敏: ""单目移动机器人相对位姿估计方法"", 《应用光学》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325796A (zh) * 2020-02-28 2020-06-23 北京百度网讯科技有限公司 用于确定视觉设备的位姿的方法和装置
CN111325796B (zh) * 2020-02-28 2023-08-18 北京百度网讯科技有限公司 用于确定视觉设备的位姿的方法和装置
WO2021184218A1 (zh) * 2020-03-17 2021-09-23 华为技术有限公司 一种相对位姿标定方法及相关装置
CN114066990A (zh) * 2020-07-31 2022-02-18 北京外号信息技术有限公司 基于二维图像的场景重建方法、电子设备及介质
CN112419409A (zh) * 2020-11-18 2021-02-26 合肥湛达智能科技有限公司 一种基于实时视频的位姿估计方法
CN113436230A (zh) * 2021-08-27 2021-09-24 中国海洋大学 增量式平移平均化方法、系统、设备
CN114723796A (zh) * 2022-04-24 2022-07-08 北京百度网讯科技有限公司 一种三维点云生成方法、装置及电子设备
CN116934857A (zh) * 2023-07-17 2023-10-24 北京理工大学 一种基于全景图片的视觉定位方法、装置、设备及介质

Also Published As

Publication number Publication date
CN110580720B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN110580720B (zh) 一种基于全景图的相机位姿估计方法
Wang et al. 360sd-net: 360 stereo depth estimation with learnable cost volume
Tateno et al. Distortion-aware convolutional filters for dense prediction in panoramic images
CN100485720C (zh) 一种基于序列静态图像的360°环视全景生成方法
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
CN115205489A (zh) 一种大场景下的三维重建方法、系统及装置
KR102141319B1 (ko) 다시점 360도 영상의 초해상화 방법 및 영상처리장치
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
Xu et al. Layout-guided novel view synthesis from a single indoor panorama
WO2018133119A1 (zh) 基于深度相机进行室内完整场景三维重建的方法及系统
Li et al. Spherical stereo for the construction of immersive VR environment
WO2020184174A1 (ja) 画像処理装置および画像処理方法
Chen et al. Casual 6-dof: free-viewpoint panorama using a handheld 360 camera
CN112102504A (zh) 一种基于混合现实的三维场景和二维图像混合方法
Fu et al. Image stitching techniques applied to plane or 3-D models: a review
CN114882106A (zh) 位姿确定方法和装置、设备、介质
CN107240149A (zh) 基于图像处理的物体三维模型构建方法
Imre et al. Calibration of nodal and free-moving cameras in dynamic scenes for post-production
Price et al. Augmenting crowd-sourced 3d reconstructions using semantic detections
Kim et al. 360° image reference-based super-resolution using latitude-aware convolution learned from synthetic to real
Mahmoud et al. Fast 3d structure from motion with missing points from registration of partial reconstructions
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 300072 Tianjin City, Nankai District Wei Jin Road No. 92

Applicant after: Tianjin University

Address before: 92 Weijin Road, Hong Kong, China

Applicant before: Tianjin University

GR01 Patent grant
GR01 Patent grant