CN111062966B - 基于l-m算法和多项式插值对相机跟踪进行优化的方法 - Google Patents

基于l-m算法和多项式插值对相机跟踪进行优化的方法 Download PDF

Info

Publication number
CN111062966B
CN111062966B CN201911070349.1A CN201911070349A CN111062966B CN 111062966 B CN111062966 B CN 111062966B CN 201911070349 A CN201911070349 A CN 201911070349A CN 111062966 B CN111062966 B CN 111062966B
Authority
CN
China
Prior art keywords
camera
coordinate system
scene
virtual object
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911070349.1A
Other languages
English (en)
Other versions
CN111062966A (zh
Inventor
高天寒
姜伟
Original Assignee
东北大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 东北大学 filed Critical 东北大学
Priority to CN201911070349.1A priority Critical patent/CN111062966B/zh
Publication of CN111062966A publication Critical patent/CN111062966A/zh
Application granted granted Critical
Publication of CN111062966B publication Critical patent/CN111062966B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供一种基于L‑M算法和多项式插值对相机跟踪进行优化的方法,涉及增强现实技术领域。该方法首先对目标图片进行检测识别,识别到目标图片后,移除目标图片,进入无标识式AR跟追踪状态,并创建AR场景地图;将AR场景地图的坐标系以及AR场景中的虚拟对象的坐标系进行虚实注册,获取虚拟对象的三维坐标与标准的二维成像平面之间的对应关系;移除识别的目标图片,完全进入ORB_SLAM2跟踪,利用列文伯格‑马夸尔特算法和多项式插值优化法对相机跟踪曲线进行平滑优化;根据优化后的相机跟踪曲线返回相机的外参,最终结合相机内参计算优化后的相机参数矩阵,进行虚实注册,保证AR场景中虚拟模型的稳定。

Description

基于L-M算法和多项式插值对相机跟踪进行优化的方法
技术领域
本发明涉及增强现实技术领域,尤其涉及一种基于L-M算法和多项式插值对相机跟踪进行优化的方法。
背景技术
增强现实是一种通过将虚拟模型准确叠加到现实场景中,达到虚实结合效果的技术。增强现实场景比传统的信息呈现方式更加直观,有着广泛的应用。SLAM(simultaneouslocalization and mapping,即时定位与地图构建)作为支撑增强现实的关键技术,用于在未知环境中确定自身位置并且同时构建周围环境三维地图,以此保证虚拟模型与真实场景的几何一致性。当存在识别图时,AR场景是稳定的,但是移除识别图后,AR场景中的虚拟物体将变得不稳定。虽然系统会帮助我们最小化误差,使相机参数满足最小重投影误差的约束,但是相邻帧对应的相机参数的突变和波动没有完全得到改善,这是导致虚拟场景抖动的原因。
非线性最小二乘是一种优化的手段,效果较好的非线性最小二乘方法是列文伯格-马夸尔特法,即L-M算法。列文伯格-马夸尔特法是对相机外参进行初步优化,缩小误差范围。多项式插值也是一种优化方法。传统的一步优化难以保证相机跟踪曲线的平滑,多种优化方法的结合使用会取得较好的效果。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于L-M算法和多项式插值对相机跟踪进行优化的方法,实现对相机跟踪进行优化。
为解决上述技术问题,本发明所采取的技术方案是:基于L-M算法和多项式插值对相机跟踪进行优化的方法,包括以下步骤:
步骤1:运行ORB_SLAM2程序,对目标图片进行检测识别,在没有识别到目标图像之前保持识别状态;
步骤2:识别到目标图片后,移除目标图片,进入无标识式AR跟追踪状态,跟踪的每一帧都绘制虚拟物体,同时调用ORB_SLAM2程序对AR场景进行初始化,即构建AR场景地图和保持对原目标图片的跟踪状态;
步骤3:在跟踪状态下,如果跟踪失败重新执行步骤1进行目标检测,否则检测成功后重新执行步骤2,继续调用ORB_SLAM2对AR场景进行初始化,直到AR场景地图创建成功为止;
步骤4:构建AR场景地图成功的同时,将AR场景地图的坐标系以及AR场景中的虚拟对象的坐标系进行虚实注册,获取虚拟对象的三维坐标与标准的二维成像平面之间的对应关系;具体涉及到AR场景中虚拟对象的坐标系、世界坐标系、相机坐标系和二维成像平面坐标系之间的转换;设定虚拟对象坐标系坐标为(Xv,Yv,Zv),世界坐标系坐标为(Xw,Yw,Zw),相机坐标系坐标为(Xc,Yc,Zc);
所述世界坐标系到相机坐标系的转换,具体如下:
世界坐标系到相机坐标系的转换是为了确定相机与真实场景的相对位置和方向,转换公式如下所示:
其中,V3x3是一个3x3的矩阵,反应相机相对于世界坐标系的旋转分量;W3x1是一个3x1的矩阵,表示的是相机相对于世界坐标系的平移分量;
所述相机坐标系到二维成像平面坐标系的转换过程,具体如下:
首先对相机进行标定,获取相机内参;利用小孔成像原理,完成相机从三维坐标到二维平面坐标的转换;
根据针孔相机的成像原理,设相机坐标系中某点的坐标M(Xc,Yc,Zc)到二维平面上的投影为M(xu,yu),有相似比例关系得:
将上述公式用齐次坐标和矩阵表示为:
其中,fx、fy、u0、v0均为相机的内部参数,fx为焦距在平面坐标系x轴上的缩放结果,fy为焦距在平面坐标系y轴上的缩放结果,u0、v0分别表示像素坐标系原点沿平面坐标系y、x方向平移的距离;
所述虚拟对象坐标系到世界坐标系的转换,具体如下:
虚拟对象坐标系到世界坐标系的转换,确定了虚拟物体在真实场景三维空间中的位置和方向,转换关系如下所示:
其中,dx和dy表示数字离散化后的像素在平面坐标系x轴和y轴方向上的尺度变换参数;
由此得AR场景中虚拟对象坐标到二维成像平面坐标的映射关系,如下:
其中,N为坐标变换矩阵,f为相机焦距;
步骤5:移除识别的目标图片,完全进入ORB_SLAM2跟踪,利用列文伯格-马夸尔特算法对相机跟踪曲线进行初步平滑优化;
所述利用列文伯格-马夸尔特算法对相机跟踪曲线进行初步平滑优化的具体方法为:
(1)首先取第一帧的相机外参x0作为列文伯格-马夸尔特算法的初始值,给定初始优化半径μ和区域信赖范围ρ;
(2)对于第k次迭代,求解:
其中,μk是优化半径,D为非负数对角阵,f(xk)是相机跟踪曲线关于相机位姿xk的函数,J(xk)是相机跟踪曲线关于相机位姿xk的一阶导数,Δxk表示相机位姿xk的增量;
(3)根据公式计算第k次迭代时的区域信赖范围ρk;若则μk+1=2μk;若/>则μk+1=0.5μk,xk+1=xk;若/>则μk+1=μk,xk+1=xk;如果ρk大于设定阀值,令xk+1=xk+Δxk
(4)判断Δxk是否小于10-4,若否,则算法不收敛,重新执行(2)继续迭代,否则完成对相机跟踪曲线的初步平滑优化,执行步骤6;
步骤6:检测相机跟踪的连续五个帧之间的相机跟踪曲线波动是否大于cos0.9,若大于则采用多项式插值优化法对连续五个帧进行插值处理,完成对相机跟踪曲线的最终优化,否则相机跟踪曲线平滑,执行步骤7;
步骤7:根据优化后的相机跟踪曲线返回相机的外参,最终结合相机内参计算优化后的相机参数矩阵,进行虚实注册,保证AR场景中虚拟模型的稳定。
采用上述技术方案所产生的有益效果在于:本发明提供的基于L-M算法和多项式插值对相机跟踪进行优化的方法,利用列文伯格-马夸尔特法进行对相机跟踪曲线进行初步平滑优化,再采用多项式插值优化法对连续五个帧进行插值处理,完成对相机跟踪曲线的最终优化,使用列文伯格-马夸尔特法可在一定程度上避免线性方程组的系数矩阵的非奇异和病态问题为优化提供更稳定、更准确的增量;多项式插值法保证了局部平滑。用列文伯格-马夸尔特法结合多项式插值法对相机跟踪曲线进行优化,使虚拟模型能够稳定地出现在原来的地方,在室内静态场景中取得了较好的效果。
附图说明
图1为本发明实施例提供的基于L-M算法和多项式插值对相机跟踪进行优化的方法的框架图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本实施例中,基于L-M算法和多项式插值对相机跟踪进行优化的方法,如图1所示,包括以下步骤:
步骤1:运行ORB_SLAM2程序,对目标图片进行检测识别,在没有识别到目标图像之前保持识别状态;
步骤2:识别到目标图片后,移除目标图片,进入无标识式AR跟追踪状态,跟踪的每一帧都绘制虚拟物体,同时调用ORB_SLAM2程序对AR场景进行初始化,即构建AR场景地图和保持对原目标图片的跟踪状态;
步骤3:在跟踪状态下,如果跟踪失败重新执行步骤1进行目标检测,否则检测成功后重新执行步骤2,继续调用ORB_SLAM2对AR场景进行初始化,直到AR场景地图全部创建成功为止;
步骤4:构建AR场景地图成功的同时,将AR场景地图的坐标系以及AR场景中的虚拟对象的坐标系进行虚实注册,获取虚拟对象的三维坐标与标准的二维成像平面之间的对应关系;具体涉及到AR场景中虚拟对象的坐标系、世界坐标系、相机坐标系和二维成像平面坐标系之间的转换;设定虚拟对象坐标系坐标为(Xv,Yv,Zv),世界坐标系坐标为(Xw,Yw,Zw),相机坐标系坐标为(Xc,Yc,Zc);
所述世界坐标系到相机坐标系的转换,具体如下:
世界坐标系到相机坐标系的转换是为了确定相机与真实场景的相对位置和方向,转换公式如下所示:
其中,V3x3是一个3x3的矩阵,反应相机相对于世界坐标系的旋转分量;W3x1是一个3x1的矩阵,表示的是相机相对于世界坐标系的平移分量;
所述相机坐标系到二维成像平面坐标系的转换过程,具体如下:
首先对相机进行标定,获取相机内参;利用小孔成像原理,完成相机从三维坐标到二维平面坐标的转换;
根据针孔相机的成像原理,设相机坐标系中某点的坐标M(Xc,Yc,Zc)到二维平面上的投影为M(xu,yu),有相似比例关系得:
将上述公式用齐次坐标和矩阵表示为:
其中,fx、fy、u0、v0均为相机的内部参数,像素坐标系与成像平面之间差了一个缩放和一个原点的平移,fx为焦距在平面坐标系x轴上的缩放结果,fy为焦距在平面坐标系y轴上的缩放结果,u0、v0分别表示像素坐标系原点沿平面坐标系y、x方向平移的距离;
所述虚拟对象坐标系到世界坐标系的转换,具体如下:
虚拟对象坐标系到世界坐标系的转换,确定了虚拟物体在真实场景三维空间中的位置和方向,转换关系如下所示:
其中,dx和dy表示数字离散化后的像素在平面坐标系x轴和y轴方向上的尺度变换参数;
由此得AR场景中虚拟对象坐标到二维成像平面坐标的映射关系,如下:
其中,N为坐标变换矩阵,f为相机焦距;
步骤5:移除识别的目标图片,完全进入ORB_SLAM2跟踪,利用列文伯格-马夸尔特算法对相机跟踪曲线进行初步平滑优化;
所述利用列文伯格-马夸尔特算法对相机跟踪曲线进行初步平滑优化的具体方法为:
(1)首先取第一帧的相机外参x0作为列文伯格-马夸尔特算法的初始值,给定初始优化半径μ和区域信赖范围ρ;
(2)对于第k次迭代,求解:
其中,μk是优化半径,D为非负数对角阵,对角阵上的元素取JTJ的对角元素平方根,使得在梯度小的维度上约束范围更大一些;f(xk)是相机跟踪曲线关于相机位姿xk的函数,J(xk)是相机跟踪曲线关于相机位姿xk的一阶导数,Δxk表示相机位姿xk的增量;
(3)根据公式计算第k次迭代时的区域信赖范围ρk;若则μk+1=2μk;若/>则μk+1=0.5μk,xk+1=xk;若/>则μk+1=μk,xk+1=xk;如果ρk大于设定阀值,令xk+1=xk+Δxk
(4)判断Δxk是否小于10-4,若否,则算法不收敛,重新执行(2)继续迭代,否则完成对机跟踪曲线的初步平滑优化,执行步骤6;
步骤6:检测相机跟踪的连续五个帧之间的相机跟踪曲线波动是否大于cos0.9,若大于则采用多项式插值优化法对连续五个帧进行插值处理,完成对相机跟踪曲线的最终优化,否则相机跟踪曲线平滑,执行步骤7;
多项式插值法的具体方法为:
给定n+1个点{(xi,yi)}(i=0,1,...,n)(称为插值点),找到一个多项式:
y=P(x)=akxk+ak-1xk-1+…+a1x+a0
使yi=P(xi)经过给定的各点。
计算插值多项式的主要方法有:直接法、拉格朗日多项式插值和牛顿多项式插值。这三种方法得到的插值多项式在理论上是一致的,而且误差也相同。但是直接法计算过程简单、计算量较小,所以本实施例选择使用直接法求解。由插值条件yi=P(xi),得到关于系数an,an-1,…,a1,a0的线性方程组:
通过求解这个线性方程组,即得到插值多项式。
步骤7:根据优化后的相机跟踪曲线返回相机的外参,最终结合相机内参计算优化后的相机参数矩阵,进行虚实注册,保证AR场景中虚拟模型的稳定。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (2)

1.一种基于L-M算法和多项式插值对相机跟踪进行优化的方法,其特征在于:包括以下步骤:
步骤1:运行ORB_SLAM2程序,对目标图片进行检测识别,在没有识别到目标图像之前保持识别状态;
步骤2:识别到目标图片后,移除目标图片,进入无标识式AR跟追踪状态,跟踪的每一帧都绘制虚拟物体,同时调用ORB_SLAM2程序对AR场景进行初始化,即构建AR场景地图和保持对原目标图片的跟踪状态;
步骤3:在跟踪状态下,如果跟踪失败重新执行步骤1进行目标检测,否则检测成功后重新执行步骤2,继续调用ORB_SLAM2对AR场景进行初始化,直到AR场景地图创建成功为止;
步骤4:构建AR场景地图成功的同时,将AR场景地图的坐标系以及AR场景中的虚拟对象的坐标系进行虚实注册,获取虚拟对象的三维坐标与标准的二维成像平面之间的对应关系;具体涉及到AR场景中虚拟对象的坐标系、世界坐标系、相机坐标系和二维成像平面坐标系之间的相互转换;
步骤5:移除识别的目标图片,完全进入ORB_SLAM2跟踪,利用列文伯格-马夸尔特算法对相机跟踪曲线进行初步平滑优化;
步骤6:检测相机跟踪的连续五个帧之间的相机跟踪曲线波动是否大于cos0.9,若大于则采用多项式插值优化法对连续五个帧进行插值处理,完成对相机跟踪曲线的最终优化,否则相机跟踪曲线平滑,执行步骤7;
步骤7:根据优化后的相机跟踪曲线返回相机的外参,最终结合相机内参计算优化后的相机参数矩阵,进行虚实注册,保证AR场景中虚拟模型的稳定;
所述AR场景中虚拟对象的坐标系、世界坐标系、相机坐标系和二维成像平面坐标系之间的相互转换的具体方法为:
设定虚拟对象坐标系坐标为(Xv,Yv,Zv),世界坐标系坐标为(Xw,Yw,Zw),相机坐标系坐标为(Xc,Yc,Zc);
所述世界坐标系到相机坐标系的转换,具体如下:
世界坐标系到相机坐标系的转换是为了确定相机与真实场景的相对位置和方向,转换公式如下所示:
其中,V3x3是一个3x3的矩阵,反应相机相对于世界坐标系的旋转分量;W3x1是一个3x1的矩阵,表示的是相机相对于世界坐标系的平移分量;
所述相机坐标系到二维成像平面坐标系的转换过程,具体如下:
首先对相机进行标定,获取相机内参;利用小孔成像原理,完成相机从三维坐标到二维平面坐标的转换;
根据针孔相机的成像原理,设相机坐标系中某点的坐标M(Xc,Yc,Zc)到二维平面上的投影为M(xu,yu),有相似比例关系得:
将上述公式用齐次坐标和矩阵表示为:
其中,fx、fy、u0、v0均为相机的内部参数,fx为焦距在平面坐标系x轴上的缩放结果,fy为焦距在平面坐标系y轴上的缩放结果,u0、v0分别表示像素坐标系原点沿平面坐标系y、x方向平移的距离;
所述虚拟对象坐标系到世界坐标系的转换,具体如下:
虚拟对象坐标系到世界坐标系的转换,确定了虚拟物体在真实场景三维空间中的位置和方向,转换关系如下所示:
其中,dx和dy表示数字离散化后的像素在平面坐标系x轴和y轴方向上的尺度变换参数;
由此得AR场景中虚拟对象坐标到二维成像平面坐标的映射关系,如下:
其中,N为坐标变换矩阵,f为相机焦距。
2.根据权利要求1所述的基于L-M算法和多项式插值对相机跟踪进行优化的方法,其特征在于:步骤5所述利用列文伯格-马夸尔特算法对相机跟踪曲线进行初步平滑优化的具体方法为:
(1)首先取第一帧的相机外参x0作为列文伯格-马夸尔特算法的初始值,给定初始优化半径μ和区域信赖范围ρ;
(2)对于第k次迭代,求解:
其中,μk是优化半径,D为非负数对角阵,f(xk)是相机跟踪曲线关于相机位姿xk的函数,J(xk)是相机跟踪曲线关于相机位姿xk的一阶导数,△xk表示相机位姿xk的增量;
(3)根据公式计算第k次迭代时的区域信赖范围ρk;若/>则μk+1=2μk;若/>则μk+1=0.5μk,xk+1=xk;若/>则μk+1=μk,xk+1=xk;如果ρk大于设定阀值,令xk+1=xk+△xk
(4)判断△xk是否小于10-4,若否,则算法不收敛,重新执行(2)继续迭代,否则完成对相机跟踪曲线的初步平滑优化,执行步骤6。
CN201911070349.1A 2019-11-05 2019-11-05 基于l-m算法和多项式插值对相机跟踪进行优化的方法 Active CN111062966B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911070349.1A CN111062966B (zh) 2019-11-05 2019-11-05 基于l-m算法和多项式插值对相机跟踪进行优化的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911070349.1A CN111062966B (zh) 2019-11-05 2019-11-05 基于l-m算法和多项式插值对相机跟踪进行优化的方法

Publications (2)

Publication Number Publication Date
CN111062966A CN111062966A (zh) 2020-04-24
CN111062966B true CN111062966B (zh) 2024-01-02

Family

ID=70297706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911070349.1A Active CN111062966B (zh) 2019-11-05 2019-11-05 基于l-m算法和多项式插值对相机跟踪进行优化的方法

Country Status (1)

Country Link
CN (1) CN111062966B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673283A (zh) * 2020-05-14 2021-11-19 惟亚(上海)数字科技有限公司 一种基于增强现实的平滑跟踪方法
CN113177987B (zh) * 2021-04-30 2022-03-25 北京航空航天大学 一种视觉跟踪测量系统外场全局标定方法及系统
CN114288673A (zh) * 2022-03-09 2022-04-08 龙旗电子(惠州)有限公司 游戏地图的创建方法、装置、设备及存储介质
CN114742906A (zh) * 2022-06-13 2022-07-12 国网湖北省电力有限公司武汉供电公司 Mr虚拟空间图像采集方法
CN114882077A (zh) * 2022-07-12 2022-08-09 中国工程物理研究院应用电子学研究所 一种目标实时跟踪控制方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102646275A (zh) * 2012-02-22 2012-08-22 西安华旅电子科技有限公司 通过跟踪和定位算法实现虚拟三维叠加的方法
CN106204656A (zh) * 2016-07-21 2016-12-07 中国科学院遥感与数字地球研究所 基于视频和三维空间信息的目标定位和跟踪系统及方法
CN109754430A (zh) * 2018-12-20 2019-05-14 西北工业大学 基于自配极三角形的相机参数标定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102646275A (zh) * 2012-02-22 2012-08-22 西安华旅电子科技有限公司 通过跟踪和定位算法实现虚拟三维叠加的方法
CN106204656A (zh) * 2016-07-21 2016-12-07 中国科学院遥感与数字地球研究所 基于视频和三维空间信息的目标定位和跟踪系统及方法
CN109754430A (zh) * 2018-12-20 2019-05-14 西北工业大学 基于自配极三角形的相机参数标定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Monocular Camera Tracking Curve Optimization Algorithm in Augmented Reality;Tianhan Gao等;《Springer》;参见第2-4节 *

Also Published As

Publication number Publication date
CN111062966A (zh) 2020-04-24

Similar Documents

Publication Publication Date Title
CN111062966B (zh) 基于l-m算法和多项式插值对相机跟踪进行优化的方法
Zhou et al. Canny-vo: Visual odometry with rgb-d cameras based on geometric 3-d–2-d edge alignment
US9420265B2 (en) Tracking poses of 3D camera using points and planes
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
TWI536318B (zh) 深度測量之品質提升
CN111462207A (zh) 一种融合直接法与特征法的rgb-d同时定位与地图创建方法
EP1596330B1 (en) Estimating position and orientation of markers in digital images
CN110070564B (zh) 一种特征点匹配方法、装置、设备及存储介质
Assa et al. A robust vision-based sensor fusion approach for real-time pose estimation
CN114399554B (zh) 一种多相机系统的标定方法及系统
JP6842039B2 (ja) カメラ位置姿勢推定装置、方法およびプログラム
US20090304265A1 (en) Systems and methods for modeling three-dimensional objects from two- dimensional images
JP2016128810A (ja) 奥行きカメラを校正する方法
Taketomi et al. Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality
Tang et al. Camera self-calibration from tracking of moving persons
JP6860620B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN108416385A (zh) 一种基于改进图像匹配策略的同步定位与建图方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
TW201523510A (zh) 點雲拼接系統及方法
CN105339981B (zh) 用于使用一组基元配准数据的方法
JP6579659B2 (ja) 光源推定装置及びプログラム
Ohno et al. Study on real-time point cloud superimposition on camera image to assist environmental three-dimensional laser scanning
JP2009146150A (ja) 特徴位置検出方法及び特徴位置検出装置
CN109242941B (zh) 三维对象合成通过使用视觉引导作为二维数字图像的一部分
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant