CN110163902A - 一种基于因子图的逆深度估计方法 - Google Patents

一种基于因子图的逆深度估计方法 Download PDF

Info

Publication number
CN110163902A
CN110163902A CN201910389137.3A CN201910389137A CN110163902A CN 110163902 A CN110163902 A CN 110163902A CN 201910389137 A CN201910389137 A CN 201910389137A CN 110163902 A CN110163902 A CN 110163902A
Authority
CN
China
Prior art keywords
depth
camera
pose
inverse
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910389137.3A
Other languages
English (en)
Other versions
CN110163902B (zh
Inventor
吴森堂
刘文磊
李凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201910389137.3A priority Critical patent/CN110163902B/zh
Publication of CN110163902A publication Critical patent/CN110163902A/zh
Application granted granted Critical
Publication of CN110163902B publication Critical patent/CN110163902B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于因子图的逆深度估计方法,属于图像处理和单目相机深度估计技术领域。所述方法首先利用三角形方法测量空间中对应点的深度,然后利用因子图模型对单目相机进行建模,利用李群‑李代数之间的转换关系将位姿估计转换为无约束的优化问题求解;利用逆深度滤波方法来对深度进行滤波,将每次求得的逆深度进行融合,进而获得融合后的深度;利用上述得到的深度和余弦定理,可以测量空间中物体的长度。从而验证该方法的合理性。本发明将因子图模型引用到逆深度的测量中,既有利于该估计方法的扩展,也提高了估计的精度。本发明提出的逆深度滤波的方法,有效的解决了远离相机中心的像素出现拖尾现象,提高了鲁棒性。

Description

一种基于因子图的逆深度估计方法
技术领域
本发明属于图像处理和单目相机深度估计技术领域,具体来说是一种基于因子图的逆深度估计方法。
背景技术
随着人工智能技术的发展,对单目视觉SLAM(simultaneous localization andmapping,即时定位与地图构建)的研究也越来越深入,其中一种重要的研究内容是单目视觉深度信息的估计,这也是单目视觉的一个研究难点。只有深度信息估计的准确,才能保证SLAM定位的准确性。而将概率图模型应用到深度估计中,这也是将人工智能的方法应用到SLAM中。
发明内容
本发明提出了一种基于因子图的逆深度估计方法,有效提高了单目相机深度估计的精度。本发明首先利用三角形方法求出图像中对应点的深度;然后利用因子图模型来优化相机的位姿,减少位姿误差对深度估计的影响;最后利用逆深度估计的方法对深度进行优化,提高其估计的精度。
本发明提供的基于因子图的逆深度估计方法,包括如下步骤:
步骤一、利用三角形方法测量空间中对应点的深度,其中利用了对极几何的基本原理;
步骤二、利用因子图模型对单目相机进行建模,利用李群-李代数之间的转换关系将位姿估计转换为无约束的优化问题求解;
步骤三、利用逆深度滤波方法来对深度进行滤波,将每次求得的逆深度进行融合,进而获得融合后的深度;
利用上述得到的深度和余弦定理,可以测量空间中物体的长度,从而验证该方法的合理性。
本发明的优点在于:
(1)本发明将因子图模型引用到逆深度的测量中,既有利于该估计方法的扩展,也提高了估计的精度。
(2)本发明利用李群-李代数之间的转换关系将位姿估计转换为无约束的优化问题,简化了求解方法。
(3)本发明提出的逆深度滤波的方法,有效的解决了远离相机中心的像素出现拖尾现象,提高了鲁棒性。
附图说明
图1:本发明中对极几何原理图;
图2:本发明中因子图模型示意图;
图3:本发明中逆深度不确定性关系分析图;
图4:本发明中相机测距原理图;
图5:本发明中室内环境实验对比图;
图6:本发明中室外环境实验对比图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
本发明提供一种基于因子图的逆深度估计方法,包括步骤:
步骤一、利用三角形方法测量空间中任意一空间点的深度信息,其中利用了对极几何的基本原理
(1)对极几何;
对极几何是两幅视图之间内在的射影几何。它独立于景物结构,只依赖于相机的内参数和相对姿态。对极几何的原理图如图1所示。空间平面Π上的一空间点X在两个成像平面I1、I2上的投影分别为x和x′。由X、C和C′组成的平面称为对极平面,该平面包含基线,C和C′分别是两个成像平面位置处相机中心点。e和e′是对极点,它是连接两相机中心的直线CC′与两个成像平面的交点,对极点是在一幅视图中另一相机中心的像,它也是基线方向的消影点。l和l′是对极线,它是对极平面与成像平面的交线,当对极平面绕基线旋转时,每个成像平面上所有的对极线都交于对极点。
结论:对两幅图像中任何一对对应点基本矩阵F都满足条件:x′TFx=0。
基本矩阵F是对极几何的代数表示。基本矩阵F具有如下两个重要性质:
A.利用基本矩阵F求对极点:Fe=0,FTe′=0。
B.利用基本矩阵F求对极线:l′=Fx,l=FTx′。
(2)利用三角形法求空间点X的深度。
通过在两个位置处观察同一空间点X的夹角,从而确定该空间点的深度,所述深度是指空间点到相机中心的距离。
s1x=KX,s2x′=K(RX+t) (1)
其中,s1为相机在位置1的深度,s2为相机在位置2的深度,K为相机的内参数矩阵,X为空间中任意一点,公式中表示该空间点的三维位置,x和x′分别表示成像平面内两个对应点的三维位置,R为旋转矩阵,t为平移向量。令y=K-1x,y′=K-1x′,则由式(1)可以得到:
s2y′=s1Ry+t (2)
s2y′×y′=s1y′×Ry+y′×t=0 (3)
利用(2)(3)可以求出空间点X分别在两个成像平面上测量的深度s1和s2
步骤二、利用因子图模型对单目相机(简称相机)进行建模,利用李群-李代数之间的转换关系将位姿估计转换为无约束的优化问题来求解。
图2为因子模型的示意图,图中各个节点表示相关的随机量。其中xi表示第i个相机位姿的节点,lj为路标节点,i=1,2,…,n;j=1,2,…,m;oij为第i个相机观测第j个路标的观测节点,fi为因子函数,表示第i个相机的位姿相对于参考相机的位姿x0的关系,x0表示参考相机的位姿。在图2中,所有相机的位姿都是相对于参考相机位姿的相对位姿。假设因子函数fi满足如下形式的高斯分布:
其中,h(xi)为第i个相机的位姿的重投影函数,μi为第i个相机的位姿对应的像素坐标的均值,h(xi)-μi为重投影函数误差,σi 2为第i个相机的位姿对应的像素坐标的方差;N()表示高斯分布函数,fi(xi)表示第i个相机的位姿xi相对于参考相机位姿x0的因子函数。
因此,所有因子函数变量的联合概率分布可以写成因子乘积的形式:
最大后验概率Xmax推断的形式为:
对上式(6)取对数后,可以将最大后验概率Xmax推断问题转化为最小化非线性最小二乘和的问题:
假设三维空间中某点的坐标为Ua=[Xa,Ya,Za]T,其投影的像素坐标为μa=[ua,va]T。通过k个空间点来计算相机的位姿R、t,[R|t]的李代数记为ξ,像素位置和空间点位置的关系如下:
其中,sa为相机第a个空间点的深度,[R|t]表示相机的外参数矩阵,T=K[R|t]表示相机参数矩阵,ξ^表示相机外参数矩阵李代数的反对称矩阵。a表示第a个空间点,a=1,2,……,k。
将式(8)写成矩阵的形式为:
saμa=Kexp(ξ^)Ua (9)
因此,重投影函数为:
xia为第i个相机的第a个特征点,将重投影函数进行线性化,可以得到:
h(xia)=h(xia 0+Δxia)=h(xia 0)+JΔxia (11)
其中,J为雅克比矩阵,Δxia=xia-xia 0,xia 0为第i个相机第a个特征点的初始位姿。
因此,相机位姿的误差函数可以表示为如下的形式:
非线性最小化问题可以转化为:
对上式(13)关于Δxia求导可以得到正规方程为:
(JTJ)Δxia=JTb (14)
为了提高算法的运行效率,采用列文伯格-马夸尔特(LM)方法对正规方程进行修正,LM方法允许多次迭代至收敛,将步长控制在执行区域内,该方法也叫做信赖区域方法。修正后的方程如下:
(JTJ+λI)Δxia=JTb (15)
其中,I为n阶单位矩阵,λ为实数,当λ=0时,即为高斯-牛顿法;当λ很大时即沿着误差函数负梯度的方向进行更新。
下面关键的问题是求解雅克比矩阵J,因为旋转矩阵具有正交和行列式为1的约束,利用R,t作为优化变量来优化时,会引入额外的变量约束,增加了优化问题的难度,因此,可以通过李群-李代数之间的转换关系将位姿估计转换为无约束的优化问题,便于最优问题的求解。
假设空间点变换到相机坐标系下的坐标为U′=[X′,Y′,Z′]T,即:
U′=exp(ξ^)Ua=[X′,Y′,Z′]T (16)
因此相机投影模型可以转化为:
利用方程(17)的第三行消去深度信息sa后,可以得到:
fx为相机坐标系x方向的焦距,fy为相机坐标系y方向的焦距,cx为相机在像素坐标系中偏离光心x方向的像素数,cy为相机在像素坐标系中偏离光心y方向的像素数。
因此,重投影坐标相对于所测量的像素坐标的误差函数为:
eu为重投影在x方向的误差,ev为重投影在y方向的误差。
利用链式法则对位姿进行求导,可以得到:
其中,e=(eu,ev),δξ表示李代数ξ的变化量。
公式(20)中第一项是误差关于投影点的导数,对(19)式进行求导,可以得到:
公式(20)中第二项为变换后的点关于李代数的导数,空间点的变换为T=exp(ξ^),T左乘一个扰动为ΔT=exp(δξ^),假设扰动项的李代数为δξ=[δρ,δφ]T,其推导过程如下:
取其前三维即可得到U′关于位姿导数,即:
其中,I为n阶单位矩阵,δρ表示李代数se(3)的前三维向量的变化量,δφ表示李代数se(3)的后三维向量的变化量。在se(3)李代数中,符号“^”广泛的表达为“从向量到矩阵”。
将式(21)和式(23)相乘后,即可求出误差关于位姿的导数:
通过以上方法即可得到相机优化后的位姿,进而为逆深度的优化做好了准备工作。
步骤三、利用逆深度滤波方法来对深度进行滤波,将每次求得的逆深度进行融合,进而获得融合后的深度。
逆深度滤波器是使逆深度估计能够随着测量数据的增加,从一个不确定的逆深度值,逐渐收敛到一个稳定值,估计逆深度分布的变化情况。通常包括极线搜索和块匹配技术。对于一幅图像中的点,其逆深度是未知的,该点所对应的空间点分布在一条线段中,在另一个视角来看,这条线段的投影为图像平面的一条线,这条线就是极线。块匹配技术是在匹配点附近选取一个w×w的小块,在极线上也选取同样大小的小块进行灰度值的比较,可以在一定程度上提高分辨率。假设匹配点的小块用Ae表示,极线上的小块用Be表示。评价方法有三种:
第一种,SAD(Sum of Absolute Difference):差的绝对值之和,即取两个小块灰度值的差的绝对值之和。
其中,p=1,2…w,q=1,2,…w,A(p,q)为匹配点上的像素(p,q)的灰度值,B(p,q)为极线上的像素(p,q)的灰度值。
第二种,SSD(Sum of Squared Distance):两个小块灰度值的差的平方和。
第三种,NCC(Normalized Cross Correlation):归一化互相关。需要计算两个小块的相关性。
本文采用NCC的评价方法。
在实际应用中,逆深度具有更好的数值稳定性。
设像素点的逆深度τ服从高斯分布:
P(τ)=N(μ,σ2) (28)
其中,P(τ)、μ、σ2分别表示逆深度τ的概率密度函数、均值和方差。
新观测得到的逆深度数据也服从高斯分布:
P(τ′)=N(μ′,σ′2) (29)
其中,P(τ′)、μ′、σ′2分别表示新观测得到的逆深度τ′的概率密度函数、均值和方差。
将原来深度和观测后的数据进行融合后,仍然是高斯分布:
只考虑几何不确定性的情况下,关于融合后的均值方差μ′,σ′2的计算如下。
逆深度不确定性关系如图3所示。假设 如图3所示,对极平面的两个底角分别为α,β,顶角为γ。假设对极线l2上存在一个像素大小的误差,使β变为β′,τ变成了τ′,γ变成了γ′。
通过三角形法可以求得深度
根据几何关系,可以得到:
对第二个相机的位姿x2扰动一个像素,将使底角β产生一个变化量δβ,由于相机的焦距为f,η为每一个像素的尺寸,于是可得:
根据几何关系可以得到:
根据正弦定理,可以得到深度的大小为:
因为逆深度为深度的倒数,所以,
因此可以得到σ′2的估计为:
当不确定性σ′2小于一定的阈值后,则可认为深度数据已经收敛了。
利用深度和余弦定理来测量空间中物体的长度,从而验证该方法的合理性。图4为利用单目相机所测量的深度估计图像中两点间距离的示意图,θ为相机中心与两个目标点之间的夹角。通常可以利用深度的方向向量求出夹角:
已知两个目标点的深度向量和夹角θ,可以利用余弦定理来求出两目标点之间的距离d:
应用本发明提供的逆深度滤波方法测量两个目标点的距离,测量误差小于20%。
实施例
本发明采用720P的USB摄像头来进行实验,相机焦距f为3.6mm。为了保证实验的可对比性,所有的位姿优化都使用g2o的方法。将分别对深度滤波器,逆深度滤波器和混合逆深度滤波器进行对比。分别采用30幅图像进行迭代求解,将最后的迭代结果作为最终的测量结果。
(1)室内环境的估计对比实验
图5中,(a)为室内环境原始图像,其中标注真实测量距离0.4m。(b)为利用深度滤波器滤波后所得到的深度图,通过深度图测量的距离为0.27m,误差(32.5%)最大。(c)为利用高斯逆深度滤波器滤波后所得到的逆深度图像,通过图像可以清晰的看到物体的轮廓线,其测量的距离为0.33m,误差(17.5%)较小。
通过将深度滤波器和逆深度滤波器的计算结果对比可以得到,逆深度滤波器的计算更加稳定。深度滤波器假设在测量点附近像素的深度满足高斯分布,但这种假设会造成靠近相机中心的像素过于集中,而远离相机中心的像素出现拖尾现象,造成数据分布不均匀,抗干扰能力比较差。逆深度滤波器,则是对像素的深度信息取倒数后,假设其倒数满足高斯分布,该假设有效的解决了像素拖尾的现象,分散靠近相机中的像素,使像素深度的分布更加合理,因此,实验结果更加稳定,抗干扰性更好。
(2)室外环境的估计对比实验
图6中,(a)为室外环境的原始图,其中标注的两点间的真实测量距离为1m。(b)为利用深度滤波器滤波后得到的深度图,其测量的距离为0.77m,误差(23%)比较大。(c)为利用逆深度滤波器滤波后得到的逆深度图,其测量距离为0.8m,误差20%,与深度法相比精度有所提高,外形轮廓比较明显。通过对以上实验的对比结果可以看出,逆深度滤波优于深度滤波法。逆深度滤波主要解决了数据拖尾的现象,而混合逆深度滤波则主要解决了抗干扰的问题。

Claims (5)

1.一种基于因子图的逆深度估计方法,其特征在于:包括如下步骤,
步骤一、利用三角形方法测量空间中任意一空间点的深度;
步骤二、利用因子图模型对相机进行建模,利用李群-李代数之间的转换关系将位姿估计转换为无约束的优化问题求解;
建立因子模型,xi表示第i个相机位姿的节点,lj为路标节点,i=1,2,…,n;j=1,2,…,m;fi为因子函数,表示第i个相机的位姿相对于参考相机的位姿x0的关系,x0表示参考相机的位姿,假设因子函数fi满足如下形式的高斯分布:
其中,h(xi)为第i个相机的位姿的重投影函数,μi为第i个相机的位姿对应的像素坐标的均值,h(xi)-μi为重投影函数误差,σi 2为第i个相机的位姿对应的像素坐标的方差;N()表示高斯分布函数,fi(xi)表示第i个相机的位姿xi相对于参考相机位姿x0的因子函数;
因此,所有因子函数变量的联合概率分布写成因子乘积的形式:
最大后验概率Xmax推断的形式为:
对上式(6)取对数后,将最大后验概率Xmax推断问题转化为最小化非线性最小二乘和的问题:
假设三维空间中某点的坐标为Ua=[Xa,Ya,Za]T,其投影的像素坐标为μa=[ua,va]T;通过k个空间点来计算相机的位姿R、t,[R|t]的李代数记为ξ,像素位置和空间点位置的关系如下:
其中,sa为相机第a个空间点的深度,[R|t]表示相机的外参数矩阵,T=K[R|t]表示相机参数矩阵,ξ^表示相机外参数矩阵李代数的反对称矩阵;a=1,2,……,k;
将式(8)写成矩阵的形式为:
saμa=Kexp(ξ^)Ua (9)
因此,重投影函数为:
xia为第i个相机的第a个特征点,将重投影函数进行线性化,得到:
h(xia)=h(xia 0+Δxia)=h(xia 0)+JΔxia (11)
其中,J为雅克比矩阵,Δxia=xia-xia 0,xia 0为第i个相机第a个特征点的初始位姿;
因此,相机位姿的误差函数表示为如下的形式:
非线性最小化问题转化为:
对上式(13)关于Δxia求导得到正规方程为:
(JTJ)Δxia=JTb (14)
采用列文伯格-马夸尔特方法对正规方程进行修正,修正后的方程如下:
(JTJ+λI)Δxia=JTb (15)
其中,I为n阶单位矩阵,λ为实数,当λ=0时,即为高斯-牛顿法;当λ很大时,即沿着误差函数负梯度的方向进行更新;
下面求解雅克比矩阵J,假设空间点变换到相机坐标系下的坐标为U′=[X′,Y′,Z′]T,即:
U′=exp(ξ^)Ua=[X′,Y′,Z′]T (16)
因此相机投影模型转化为:
利用方程(17)的第三行消去深度信息sa后,得到:
fx为相机坐标系x方向的焦距,fy为相机坐标系y方向的焦距,cx为相机在像素坐标系中偏离光心x方向的像素数,cy为相机在像素坐标系中偏离光心y方向的像素数;
因此,重投影坐标相对于所测量的像素坐标的误差函数为:
eu为重投影在x方向的误差,ev为重投影在y方向的误差;
利用链式法则对位姿进行求导,得到:
其中,e=(eu,ev),δξ表示李代数ξ的变化量;
公式(20)中第一项是误差关于投影点的导数,对(19)式进行求导,得到:
公式(20)中第二项为变换后的点关于李代数的导数,空间点的变换为T=exp(ξ^),T左乘一个扰动为ΔT=exp(δξ^),假设扰动项的李代数为δξ=[δρ,δφ]T,其推导过程如下:
取其前三维即得到U′关于位姿导数,即:
其中,I为n阶单位矩阵,δρ表示李代数se(3)的前三维向量的变化量,δφ表示李代数se(3)的后三维向量的变化量;
将式(21)和式(23)相乘后,求出误差关于位姿的导数:
通过以上方法得到相机优化后的位姿;
步骤三、利用逆深度滤波方法来对深度进行滤波,将每次求得的逆深度进行融合,进而获得融合后的深度。
2.根据权利要求1所述的一种基于因子图的逆深度估计方法,其特征在于:步骤一中应用对极几何原理,得到空间点分别在相机的两个位置处的深度,具体为,
通过在两个位置处观察同一空间点X的夹角,从而确定该空间点分别在两个成像平面上测量的深度,
s1x=KX,s2x′=K(RX+t) (1)
其中,s1为相机在位置1的深度,s2为相机在位置2的深度,K为相机的内参数矩阵,X为空间中任意一点,公式中表示该空间点的三维位置,x和x′分别表示成像平面内两个对应点的三维位置,R为旋转矩阵,t为平移向量;令y=K-1x,y′=K-1x′,则由式(1)得到:
s2y′=s1Ry+t (2)
s2y′×y′=s1y′×Ry+y′×t=0 (3)
利用(2)(3)求出空间点X分别在两个成像平面上测量的深度s1和s2
3.根据权利要求1所述的一种基于因子图的逆深度估计方法,其特征在于:步骤三中所述的是逆深度滤波方法,包括极线搜索和块匹配技术,对于一幅图像中的点,其逆深度是未知的,该点所对应的空间点分布在一条线段中,在另一个视角来看,这条线段的投影为图像平面的一条线,这条线就是极线;块匹配技术是在匹配点附近选取一个w×w的小块,在极线上也选取同样大小的小块进行灰度值的比较;假设匹配点的小块用Ae表示,极线上的小块用Be表示;采用NCC的评价方法,计算两个小块的相关性:
其中,p=1,2…w,q=1,2,…w,A(p,q)为匹配点上的像素(p,q)的灰度值,B(p,q)为极线上的像素(p,q)的灰度值。
4.根据权利要求1所述的一种基于因子图的逆深度估计方法,其特征在于:步骤三中所述的逆深度进行融合,具体为,
设像素点的逆深度τ服从高斯分布:
P(τ)=N(μ,σ2) (28)
其中,P(τ)、μ、σ2分别表示逆深度τ的概率密度函数、均值和方差;
新观测得到的逆深度数据也服从高斯分布:
P(τ′)=N(μ′,σ′2) (29)
其中,P(τ′)、μ′、σ′2分别表示新观测得到的逆深度τ′的概率密度函数、均值和方差;
将原来深度和观测后的数据进行融合后,仍然是高斯分布:
只考虑几何不确定性的情况下,关于融合后的均值方差μ′,σ′2的计算如下:
假设对极平面的两个底角分别为α,β,顶角为γ,假设对极线l2上存在一个像素大小的误差,使β变为β′,τ变成了τ′,γ变成了γ′;通过三角形法求深度
根据几何关系,得到:
对第二个相机的位姿x2扰动一个像素,将使底角β产生一个变化量δβ,由于相机的焦距为f,η为每一个像素的尺寸,于是得:
根据几何关系得到:
根据正弦定理,得到深度的大小为:
因为逆深度为深度的倒数,所以,
因此得到σ′2的估计为:
当不确定性σ′2小于一定的阈值后,则认为深度数据已经收敛。
5.一种基于因子图的逆深度估计方法的应用,其特征在于:利用相机所测量的深度估计图像中两点间距离,具体为,利用深度的方向向量求出夹角θ:
θ为相机中心与两个目标点之间的夹角;
已知两个目标点的深度向量和夹角θ,利用余弦定理来求出两目标点之间的距离d:
CN201910389137.3A 2019-05-10 2019-05-10 一种基于因子图的逆深度估计方法 Active CN110163902B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910389137.3A CN110163902B (zh) 2019-05-10 2019-05-10 一种基于因子图的逆深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910389137.3A CN110163902B (zh) 2019-05-10 2019-05-10 一种基于因子图的逆深度估计方法

Publications (2)

Publication Number Publication Date
CN110163902A true CN110163902A (zh) 2019-08-23
CN110163902B CN110163902B (zh) 2021-05-04

Family

ID=67634151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910389137.3A Active CN110163902B (zh) 2019-05-10 2019-05-10 一种基于因子图的逆深度估计方法

Country Status (1)

Country Link
CN (1) CN110163902B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111681279A (zh) * 2020-04-17 2020-09-18 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN112762938A (zh) * 2020-12-24 2021-05-07 哈尔滨工程大学 一种基于旋转矩阵的因子图协同定位方法
CN113658264A (zh) * 2021-07-12 2021-11-16 华南理工大学 基于距离信息的单幅图像相机焦距估计方法
CN114459507A (zh) * 2022-03-03 2022-05-10 湖南大学无锡智能控制研究院 一种dvl安装误差标定方法、设备及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100246899A1 (en) * 2009-03-26 2010-09-30 Rifai Khalid El Method and Apparatus for Dynamic Estimation of Feature Depth Using Calibrated Moving Camera
CN108242079A (zh) * 2017-12-30 2018-07-03 北京工业大学 一种基于多特征视觉里程计和图优化模型的vslam方法
CN109544632A (zh) * 2018-11-05 2019-03-29 浙江工业大学 一种基于层次主题模型的语义slam对象关联方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100246899A1 (en) * 2009-03-26 2010-09-30 Rifai Khalid El Method and Apparatus for Dynamic Estimation of Feature Depth Using Calibrated Moving Camera
CN108242079A (zh) * 2017-12-30 2018-07-03 北京工业大学 一种基于多特征视觉里程计和图优化模型的vslam方法
CN109544632A (zh) * 2018-11-05 2019-03-29 浙江工业大学 一种基于层次主题模型的语义slam对象关联方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王京: "基于传感器数据融合的单目视觉SLAM方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111681279A (zh) * 2020-04-17 2020-09-18 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN111681279B (zh) * 2020-04-17 2023-10-31 东南大学 基于改进李群非线性优化的行车吊臂空间位姿测量方法
CN112762938A (zh) * 2020-12-24 2021-05-07 哈尔滨工程大学 一种基于旋转矩阵的因子图协同定位方法
CN113658264A (zh) * 2021-07-12 2021-11-16 华南理工大学 基于距离信息的单幅图像相机焦距估计方法
CN113658264B (zh) * 2021-07-12 2023-08-18 华南理工大学 基于距离信息的单幅图像相机焦距估计方法
CN114459507A (zh) * 2022-03-03 2022-05-10 湖南大学无锡智能控制研究院 一种dvl安装误差标定方法、设备及系统
CN114459507B (zh) * 2022-03-03 2024-02-09 湖南大学无锡智能控制研究院 一种dvl安装误差标定方法、设备及系统

Also Published As

Publication number Publication date
CN110163902B (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN110163902A (zh) 一种基于因子图的逆深度估计方法
Tóth et al. Automatic LiDAR-camera calibration of extrinsic parameters using a spherical target
Lim et al. UV-SLAM: Unconstrained line-based SLAM using vanishing points for structural mapping
CN108871349B (zh) 一种深空探测器光学导航位姿加权确定方法
CN108038902A (zh) 一种面向深度相机的高精度三维重建方法和系统
Tomono 3-D localization and mapping using a single camera based on structure-from-motion with automatic baseline selection
CN106157322B (zh) 一种基于平面镜的像机安装位置标定方法
CN113393577B (zh) 一种倾斜摄影地形重建方法
CN105787464B (zh) 一种大量图片在三维场景中的视点标定方法
CN106125907A (zh) 一种基于线框模型的三维目标注册定位方法
Nguyen et al. Structural modeling from depth images
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
Belter et al. Modeling spatial uncertainty of point features in feature-based RGB-D SLAM
Feng et al. Semi-automatic 3d reconstruction of piecewise planar building models from single image
CN113160401B (zh) 一种面向物体的视觉slam轻量化语义地图创建方法
Lee et al. Robust uncertainty-aware multiview triangulation
Liverani et al. Real-time 3D features reconstruction through monocular vision
Clark et al. The Cramer-Rao Lower Bound for 3-D state estimation from rectified stereo cameras
Abdellali et al. A direct least-squares solution to multi-view absolute and relative pose from 2D-3D perspective line pairs
Wang et al. Visual SLAM incorporating wheel odometer for indoor robots
CN107993267A (zh) 利用空间直线对抛物折反射摄像机进行标定的方法
Liu et al. Mixed probability inverse depth estimation based on probabilistic graph model
Belter et al. The importance of measurement uncertainty modelling in the feature-based RGB-D SLAM
Yu et al. Visual SLAM algorithm based on ORB features and line features
Yang et al. Structure From Motion on XSlit Cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant