CN111950599B - 一种动态环境下融合边缘信息的稠密视觉里程计方法 - Google Patents

一种动态环境下融合边缘信息的稠密视觉里程计方法 Download PDF

Info

Publication number
CN111950599B
CN111950599B CN202010698713.5A CN202010698713A CN111950599B CN 111950599 B CN111950599 B CN 111950599B CN 202010698713 A CN202010698713 A CN 202010698713A CN 111950599 B CN111950599 B CN 111950599B
Authority
CN
China
Prior art keywords
representing
formula
residual error
residual
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010698713.5A
Other languages
English (en)
Other versions
CN111950599A (zh
Inventor
罗元
周凯
李晋宏
曾念文
吕元元
范晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202010698713.5A priority Critical patent/CN111950599B/zh
Publication of CN111950599A publication Critical patent/CN111950599A/zh
Application granted granted Critical
Publication of CN111950599B publication Critical patent/CN111950599B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种动态环境下融合边缘信息的稠密视觉里程计方法,具体步骤为:首先,根据深度信息进行场景聚类,再基于光度信息与边缘信息的聚类构建出残差模型,并引入平均背景深度,加大前景残差。然后,将残差模型与非参数统计模型相结合,分离动态物体并得到聚类权重。最后,将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度。在TUM数据集上进行实验,结果表明本文算法在动态环境下比现有算法有更高的精度与鲁棒性。

Description

一种动态环境下融合边缘信息的稠密视觉里程计方法
技术领域
本发明属于视觉SLAM领域,特别是一种动态环境下融合边缘信息的稠密视觉里程计方法。
背景技术
视觉里程计(visual odometry)是一种利用视觉传感器信息对机器人或其他载体进行准确的位姿估计的方法,相比于使用激光传感器的方法,视觉信息更加丰富,可用于三维重建、物体识别、语义分割等。同时,因其成本低、体积小、精度高等优点,而广泛的应用于机器人自主导航、自动驾驶、增强现实等领域。
为了简化定位与建图问题,现阶段大部分视觉里程计都是假设相机处于静态环境或者图像信息的变化仅依赖于相机自身的运动。然而实际的环境中不可避免的存在动态物体,当动态物体在图像中所占比重较小时,一般可采用随机采样一致性(RANSAC)或鲁棒Huber函数等概率方法将动态部分当作噪声剔除掉。若动态物体在图像中占比较大时,则无法通过概率方法剔除,动态特征会影响到位姿估计,得到错误的位姿,最终导致定位与建图失败。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种能够在动态环境下实时且准确的进行机器人自主定位的稠密视觉里程计方法。
鉴于此,本发明采用的技术方案如下:一种动态环境下融合边缘信息的稠密视觉里程计方法,包括以下步骤:
S1,使用K-means聚类法,将图像分为N个集群。
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别计算出光度及几何一致性误差与边缘对齐误差。
S3,将S2中的两种误差进行数据融合,构建融合边缘信息的聚类残差模型,并将其正则化。
S4,引入平均背景深度进行运动分割,基于S3构建引入平均背景深度的聚类残差模型。
S5,构建基于t分布的非参数统计模型,根据自适应阈值构建场景分割模型,并计算得到加权聚类残差。
S6,将步骤S5得到的加权聚类残差加入到优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
本发明的优点及有益效果如下:
本发明针对传统的视觉里程计方法在动态环境下鲁棒性和精度不高的问题,提出一种融合边缘信息的稠密视觉里程计方法。该算法将边缘信息加入到运动分割与位姿估计中,利用边缘信息对于光照变化以及图像模糊不敏感的优点,使得本发明在多种不同的环境下拥有更好的鲁棒性与更高的精度,同时对于几何纹理较少的环境,更多的采用光度结合深度信息来进行位姿估计,降低环境特征过少而导致的误差。另外,本发明通过引入平均背景深度,使距离背景较远的动态部分有更大的残差值,而距离背景较近的动态部分本身就有较大的残差,以此来扩大动、静部分残差差距而有利于正确的运动分割。通过边缘信息的融合使得算法在静态环境下以及富有挑战性的高动态环境下都能取得较好的结果,能够检测出距离相机较远的动态部分,在信息丢失、图像模糊等情况下也有更好的鲁棒性。
附图说明
图1是本发明方法的实现框架;
图2是非参数统计模型拟合实际实验残差图;
图3是对fr3/walking_xyz数据进行实验的相对平移误差图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
参见图1,本方法的主要步骤为:
S1,使用K-means聚类法,将图像分为N个集群。
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别计算出光度及几何一致性误差与边缘对齐误差。
S3,将S2中的两种误差进行数据融合,构建融合边缘信息的聚类残差模型,并将其正则化以构建与动态物体有较高相关性的残差模型。
S4,引入平均背景深度来辅助算法进行运动分割,基于S3构建引入平均背景深度的聚类残差模型。
S5,构建基于t分布的非参数统计模型来拟合聚类残差模型,根据自适应阈值构建场景分割模型,并计算得到加权聚类残差。
S6,将步骤S5得到的加权聚类残差加入到优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
步骤S1的具体实施过程为:
采用K-means聚类法,通过计算每一个三维空间点距离集群中心点的距离,来确定该空间点属于哪一个集群。
步骤S2的具体实施过程为:
S21:将聚类后的当前帧Fc的灰度图坐标变换到关键帧Fk,根据光度及几何一致性构建残差模型,具体公式如下:
Figure BDA0002592245750000021
Figure BDA0002592245750000022
式中,
Figure BDA0002592245750000023
Figure BDA0002592245750000024
分别表示点i对应的光度误差与深度误差。
Figure BDA0002592245750000025
为当前帧的第i个像素点。Ik和Zk表示关键帧的灰度图与深度图,Ic和Zc表示当前帧的灰度图与深度图。|·|Z表示三维坐标点的Z坐标值。Tkc表示从当前帧到关键帧的坐标变换矩阵。ξkc为当前帧到关键帧坐标变换的李代数。π-1为逆投影函数。ω为坐标变换函数。
S22:将聚类后的边缘图坐标变换到关键帧的DT图,得到基于边缘对齐的残差模型,具体公式如下:
Figure BDA0002592245750000031
式中,
Figure BDA0002592245750000032
表示边缘点i对应的DT误差。DTk表示关键帧的DT误差函数。
步骤S3的具体实施过程为:
S31:将边缘对齐误差引入到光度及几何误差中构建融合边缘信息的残差模型,并在计算中通过去除每个集群的遮挡点从而降低遮挡的影响,具体公式如下:
Figure BDA0002592245750000033
式中,rn表示第n个集群的残差值。Sn表示第n个集群中所有深度有效的像素个数。On表示第n个集群中遮挡的像素个数。En表示第n个集群中所有深度有效的边缘点。
Figure BDA0002592245750000034
为第n个群的平均深度。αI与αE分别表示光度误差与DT误差在残差模型中所占权重;
Figure BDA0002592245750000035
表示边缘点i对应的DT误差;
S32:为了加强算法应对各种复杂环境的鲁棒性,构建权重αI与αE的公式如下:
Figure BDA0002592245750000036
式中,vc为相机运动速度。N为集群总数量。μ为由αI到αE的尺度系数。在边缘信息丰富(边缘点占比高)或相机运动速度较快时(容易产生模糊图像),αI有较大值。相反,αE较小时边缘信息影响较小。
S33:为了使得残差模型与动态物体有较高的相关性,将残差进行正则化,具体公式如下:
Figure BDA0002592245750000037
式中,E(rn)为非线性优化求解的最小误差。Gmn为聚类连通函数,为1表示m与n集群连通。λR与λT表示对非线性优化函数求解的权重。rn与rm分别表示第n个集群和第m个集群的残差值。rn,c-1表示上一帧中第n个集群的残差值,因为在时间上,物体都是趋于保持移动或静止的,通过求解最小问题来得到最佳rn,正则化后的残差与动态物体有较高的相关性。
步骤S4的具体实施过程为:
S41:动态物体一般都为独立的刚体且远离背景,通过扩大远离背景部分的集群残差,使得靠近背景的集群偏向于分割为静态部分,而远离背景的集群有更大几率被判定为动态部分。平均背景深度的引入有助于正确的运动分割,定义平均背景深度公式为:
Figure BDA0002592245750000041
式中,
Figure BDA0002592245750000042
表示当前帧平均背景深度。
Figure BDA0002592245750000043
表示上一帧平均背景深度。dc-1为上一帧所分割出的动态集群数量。
Figure BDA0002592245750000044
表示第n个集群的平均深度。λD为上一帧平均背景深度对计算当前帧平均背景深度影响的权重。
S42:根据S41的公式构建引入平均背景深度后的残差模型为:
Figure BDA0002592245750000045
式中,δn为引入平均背景深度后的第n个集群的残差值。
Figure BDA0002592245750000046
表示第n个集群与背景的距离。距离背景较近的部分残差值几乎不变,而距离较远的部分会产生更大的残差值,有利于正确的运动分割。
步骤S5的具体实施过程为:
S51:根据聚类残差分布的普遍特征,建立一个基于t分布的非参数统计模型,如图2所示,非参数统计模型能够较好地拟合实际实验残差的直方图:
Figure BDA0002592245750000047
σ=1.4826Median{|δn-μ|}
式中,wn为t分布的概率值。v0为t分布的自由度,它决定了分布曲线的陡峭程度。平均值μ决定分布中心所处位置。σ为统计方差,通过中位数绝对偏差估算得到;
S52:在各种复杂的场景下,采用固定阈值会使得分割效果不佳。因此,使用自适应阈值构建场景分割模型,残差高于自适应阈值的集群可判定为动态部分,而低于阈值的集群可作为静态部分或赋权部分加入到位姿估算中,具体公式如下:
Figure BDA0002592245750000048
式中,
Figure BDA0002592245750000049
代表第n个集群的权重,为0时表示该集群为动态集群,为1时表示为静态集群。vc为相机速度。σ为统计方差。β用于调整因变量到残差尺度的系数,通过公式
Figure BDA00025922457500000410
计算得到。
步骤S6的具体实施过程为:
S61:采用Cauchy M-estimator模型,通过加权聚类残差来构建非线性优化函数,用以更准确的估计帧间运动,具体公式如下:
Figure BDA00025922457500000411
Figure BDA00025922457500000412
式中,M表示所有深度有效的点的数量。
Figure BDA0002592245750000051
表示属于第n个集群的点i的权重。ξ为所求最优位姿的李代数。c定义了F(r)的拐点,调整c可增加对高残差的鲁棒性。通过最小化非线性优化函数求ξ以得到最佳的帧间运动;
S62:采用边缘信息来评估跟踪质量,通过将先前跟踪过的N帧的边缘投影到当前帧,得到像素点重叠计数图,通过对相同重叠数构建直方图,来获取图像重叠情况,具体公式如下:
Figure BDA0002592245750000052
式中H(j)表示重叠数为j的点的数量,H(0)表示未重叠的点的数量。γj与γ0分别表示重叠数为j和0的点在跟踪质量评估中所占的权重。当边缘重叠的加权和小于非重叠的数量时,说明跟踪质量较差,此时将上一跟踪较好的帧更新为关键帧。
完成上述所有步骤之后,便可以得到当前帧最优位姿,并为下一次更新迭代做好了准备。
对TUM数据集的高动态环境fr3/walking_xyz数据进行实验,得到相对位姿误差(RPE)如图3所示,红色为本发明算法(为图中最下面的一条曲线),其他为现有算法,横坐标为数据帧,纵坐标为平移误差。实验表明本发明算法在动态环境下比现有算法有更低的相对位姿误差,本发明算法有更高的精度与鲁棒性。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (3)

1.一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:包括以下步骤:
S1,使用K-means聚类法,将图像分为N个集群;
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别计算出光度及几何一致性误差与边缘对齐误差,具体包括:
S21:将聚类后的当前帧Fc的灰度图坐标变换到关键帧Fk,根据光度及几何一致性构建残差模型,计算光度及几何一致性误差,基于光度及几何一致性的残差模型具体公式如下:
Figure FDA0003621438500000011
Figure FDA0003621438500000012
式中,
Figure FDA0003621438500000013
Figure FDA0003621438500000014
分别表示点i对应的光度误差与深度误差,
Figure FDA0003621438500000015
为当前帧的第i个像素点,Ik和Zk表示关键帧的灰度图与深度图,Ic和Zc表示当前帧的灰度图与深度图,|·|Z表示三维坐标点的Z坐标值,Tkc表示从当前帧到关键帧的坐标变换矩阵,ξkc为当前帧到关键帧坐标变换的李代数,π-1为逆投影函数,ω为坐标变换函数;
S22:将聚类后的边缘图坐标变换到关键帧的DT图,得到基于边缘对齐的残差模型,计算边缘对齐误差,所述基于边缘对齐的残差模型具体公式如下:
Figure FDA0003621438500000016
式中,
Figure FDA0003621438500000017
表示边缘点i对应的DT误差,DTk表示关键帧的DT误差函数;
S3,将S2中的两种误差进行数据融合,构建融合边缘信息的聚类残差模型,并将其正则化;所述构建融合边缘信息的聚类残差模型,将边缘对齐误差引入到光度及几何一致性误差中构建融合边缘信息的残差模型,具体公式如下:
Figure FDA0003621438500000018
式中,rn表示第n个集群的残差值,Sn表示第n个集群中所有深度有效的像素个数,On表示第n个集群中遮挡的像素个数,En表示第n个集群中所有深度有效的边缘点,
Figure FDA0003621438500000019
为第n个群的平均深度,αI与αE分别表示光度误差与DT误差在残差模型中所占权重,
Figure FDA00036214385000000110
表示边缘点i对应的DT误差;
所述正则化,具体公式如下:
Figure FDA00036214385000000111
式中,E(rn)为非线性优化求解的最小误差,Gmn为聚类连通函数,为1表示m与n集群连通,rn与rm分别表示第n个集群和第m个集群的残差值,rn,c-1表示上一帧中第n个集群的残差值,λR与λT表示对非线性优化函数求解的权重;
S4,引入平均背景深度进行运动分割,基于S3构建引入平均背景深度的聚类残差模型,具体包括:
S41:定义平均背景深度公式为:
Figure FDA0003621438500000021
式中,
Figure FDA0003621438500000022
表示当前帧平均背景深度,
Figure FDA0003621438500000023
表示上一帧平均背景深度,dc-1为上一帧所分割出的动态集群数量,
Figure FDA0003621438500000024
表示第n个集群的平均深度,λD为上一帧平均背景深度对计算当前帧平均背景深度影响的权重;
S42:根据S41构建的公式构建引入平均背景深度后的残差模型为:
Figure FDA0003621438500000025
式中,δn为引入平均背景深度后的第n个集群的残差值,
Figure FDA0003621438500000026
表示第n个集群与背景的距离;
S5,构建基于t分布的非参数统计模型,根据自适应阈值构建场景分割模型,并计算得到加权聚类残差,具体包括:
S51:构建基于t分布的非参数统计模型为:
Figure FDA0003621438500000027
σ=1.4826Median{|δn-μ|}
式中,wn为t分布的概率值,v0为t分布的自由度,平均值μ决定分布中心所处位置,σ为统计方差,通过中位数绝对偏差估算得到;
S52:根据自适应阈值构建场景分割模型,残差高于自适应阈值的集群判定为动态部分,低于阈值的集群作为静态部分或赋权部分加入到位姿估算中;
S6,将步骤S5得到的加权聚类残差加入到优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧,具体包括:
S61:采用Cauchy M-estimator模型,通过加权聚类残差来构建非线性优化函数,具体公式如下:
Figure FDA0003621438500000028
Figure FDA0003621438500000029
式中,M表示所有深度有效的点的数量,
Figure FDA00036214385000000210
表示属于第n个集群的点i的权重,ξ为所求最优位姿的李代数,c定义了F(r)的拐点,调整c可增加对高残差的鲁棒性;
S62:采用边缘信息来评估跟踪质量,通过将先前跟踪过的N帧的边缘投影到当前帧,得到像素点重叠计数图,通过对相同重叠数构建直方图,来获取图像重叠情况,具体公式如下:
Figure FDA00036214385000000211
式中H(j)表示重叠数为j的点的数量,H(0)表示未重叠的点的数量,γj与γ0分别表示重叠数为j和0的点在跟踪质量评估中所占的权重。
2.根据权利要求1所述一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:所述K-means聚类法,通过计算每一个三维空间点距离集群中心点的距离,来确定该空间点属于哪一个集群。
3.根据权利要求1所述一种动态环境下融合边缘信息的稠密视觉里程计方法,其特征在于:权重αI与αE满足以下公式:
Figure FDA0003621438500000031
式中,vc为相机运动速度,N为集群总数量,μ为由αI到αE的尺度系数。
CN202010698713.5A 2020-07-20 2020-07-20 一种动态环境下融合边缘信息的稠密视觉里程计方法 Active CN111950599B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010698713.5A CN111950599B (zh) 2020-07-20 2020-07-20 一种动态环境下融合边缘信息的稠密视觉里程计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010698713.5A CN111950599B (zh) 2020-07-20 2020-07-20 一种动态环境下融合边缘信息的稠密视觉里程计方法

Publications (2)

Publication Number Publication Date
CN111950599A CN111950599A (zh) 2020-11-17
CN111950599B true CN111950599B (zh) 2022-07-01

Family

ID=73341589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010698713.5A Active CN111950599B (zh) 2020-07-20 2020-07-20 一种动态环境下融合边缘信息的稠密视觉里程计方法

Country Status (1)

Country Link
CN (1) CN111950599B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837243B (zh) * 2021-09-03 2024-05-24 重庆邮电大学 基于边缘信息的rgb-d相机动态视觉里程计方法
CN116245899B (zh) * 2022-12-29 2024-03-26 淮北矿业(集团)有限责任公司物业分公司 一种基于Canny边缘的动态视觉里程计方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018127329A1 (en) * 2017-01-03 2018-07-12 Connaught Electronics Ltd. Visual odometry
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN109272493A (zh) * 2018-08-28 2019-01-25 中国人民解放军火箭军工程大学 一种基于递归卷积神经网络的单目视觉里程计方法
WO2019084804A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
CN109993113A (zh) * 2019-03-29 2019-07-09 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110910447A (zh) * 2019-10-31 2020-03-24 北京工业大学 一种基于动静态场景分离的视觉里程计方法
CN111028282A (zh) * 2019-11-29 2020-04-17 浙江省北大信息技术高等研究院 一种无监督位姿与深度计算方法及系统
CN111311685A (zh) * 2020-05-12 2020-06-19 中国人民解放军国防科技大学 一种基于imu/单目图像的运动场景重构无监督方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2418588A1 (en) * 2010-08-10 2012-02-15 Technische Universität München Visual localization method
US10935978B2 (en) * 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018127329A1 (en) * 2017-01-03 2018-07-12 Connaught Electronics Ltd. Visual odometry
WO2019084804A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位系统
CN109272493A (zh) * 2018-08-28 2019-01-25 中国人民解放军火箭军工程大学 一种基于递归卷积神经网络的单目视觉里程计方法
CN109993113A (zh) * 2019-03-29 2019-07-09 东北大学 一种基于rgb-d和imu信息融合的位姿估计方法
CN110910447A (zh) * 2019-10-31 2020-03-24 北京工业大学 一种基于动静态场景分离的视觉里程计方法
CN111028282A (zh) * 2019-11-29 2020-04-17 浙江省北大信息技术高等研究院 一种无监督位姿与深度计算方法及系统
CN111311685A (zh) * 2020-05-12 2020-06-19 中国人民解放军国防科技大学 一种基于imu/单目图像的运动场景重构无监督方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Multi modal pose fusion for monocular flight with unmanned aerial vehicles;Arbaaz Khan,et al;《2018 IEEE Aerospace Conference》;20181231;全文 *
基于视觉里程计与惯导融合技术的四旋翼位姿估计;翁一桢;《中国优秀硕士学位论文辑》;20180815;全文 *

Also Published As

Publication number Publication date
CN111950599A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN114782691B (zh) 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备
CN106780576B (zh) 一种面向rgbd数据流的相机位姿估计方法
WO2019153245A1 (en) Systems and methods for deep localization and segmentation with 3d semantic map
CN109974743B (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计
CN110287826B (zh) 一种基于注意力机制的视频目标检测方法
CN110782490A (zh) 一种具有时空一致性的视频深度图估计方法及装置
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
CN112396595B (zh) 一种动态环境下基于点线特征的语义slam方法
CN111950599B (zh) 一种动态环境下融合边缘信息的稠密视觉里程计方法
CN108022261B (zh) 一种基于改进光流场模型的非刚性图像配准方法
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN111581313A (zh) 一种基于实例分割的语义slam鲁棒性改进方法
CN114708293A (zh) 基于深度学习点线特征和imu紧耦合的机器人运动估计方法
CN112686952A (zh) 一种图像光流计算系统、方法及应用
CN112270691A (zh) 一种基于动态滤波器网络的单目视频结构和运动预测方法
CN117274515A (zh) 基于ORB和NeRF映射的视觉SLAM方法及系统
CN114612525A (zh) 基于网格分割与双地图耦合的机器人rgb-d slam方法
CN116524026B (zh) 一种基于频域和语义的动态视觉slam方法
CN113837243B (zh) 基于边缘信息的rgb-d相机动态视觉里程计方法
CN117372460A (zh) 一种基于自适应阈值边缘配准视觉里程计的月球车自主定位方法
KR101766823B1 (ko) 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법
CN116643291A (zh) 一种视觉与激光雷达联合剔除动态目标的slam方法
CN112446885A (zh) 一种动态环境下基于改进的语义光流法的slam方法
CN115170826A (zh) 基于局部搜索的运动小目标快速光流估计方法及存储介质
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant