CN113837243A - 基于边缘信息的rgb-d相机动态视觉里程计方法 - Google Patents

基于边缘信息的rgb-d相机动态视觉里程计方法 Download PDF

Info

Publication number
CN113837243A
CN113837243A CN202111033552.9A CN202111033552A CN113837243A CN 113837243 A CN113837243 A CN 113837243A CN 202111033552 A CN202111033552 A CN 202111033552A CN 113837243 A CN113837243 A CN 113837243A
Authority
CN
China
Prior art keywords
cluster
residual
representing
error
residual error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111033552.9A
Other languages
English (en)
Other versions
CN113837243B (zh
Inventor
胡章芳
吕润哲
欧俊雄
凌鉴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202111033552.9A priority Critical patent/CN113837243B/zh
Publication of CN113837243A publication Critical patent/CN113837243A/zh
Application granted granted Critical
Publication of CN113837243B publication Critical patent/CN113837243B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于边缘信息的RGB‑D相机的动态环境觉里程计方法,该方法包括以下步骤:将采集图像根据深度信息进行场景聚类;再通过光度信息、边缘信息构建出残差模型,引入平均背景深度,加大前景残差;将残差模型与面元3D重建算法结合,分离动态物体并得到聚类权重;将加权聚类残差加入到位姿估计的非线性优化函数中,以降低动态物体的影响,提高位姿估计的精度。通过在TUM RGB‑D数据集上进行实验,实验表明本发明在动态环境下比现有算法有更高的精度与鲁棒性。

Description

基于边缘信息的RGB-D相机动态视觉里程计方法
技术领域
本发明属于视觉SLAM领域,特别是基于边缘信息的RGB-D相机的动态环境觉里程计方法。
背景技术
视觉里程计(visualodometry)是一种利用视觉传感器信息对机器人或其他载体进行准确的位姿估计的方法,相比于使用激光传感器的方法,视觉信息更加丰富,可用于三维重建、物体识别、语义分割等。同时,因其成本低、体积小、精度高等优点,广泛应用于机器人自主导航、自动驾驶、增强现实等领域。
在实际应用场景中,动态环境是无法避免的,而大多数视觉SLAM算法都假设处于静态环境中。动态环境下的SLAM算法问题在于如何区分动态物体和静态物体。在进行位姿估计时,如果错误区分二者,则在后续的优化过程会产生误差,从而导致跟踪失败。当动态物体在图像中所占比重较小时,可采用随机采样一致性(RANSAC)或鲁棒Huber函数等概率方法将动态部分当作噪声剔除掉。若动态物体在图像中占比较大时,则无法通过概率方法剔除,需针对动态物体进行处理从而得到正确数据。
发明内容
为了解决上述问题,本发明提出了一种基于边缘信息的RGB-D相机动态视觉里程计方法,在所设计的方法中,K-means聚类算法能够提取更多信息,提高识别动态物体的准确度。提出的边缘信息和K-me ans算法融合可以正确识别动态物体在图像中占比超过50%的情况,提高识别动态物体的准确率。
本发明采用的技术方案是:基于边缘信息的RGB-D相机动态视觉里程计方法,包括以下步骤:
S1,使用K-means聚类法,将RGB-D相机获取的图像分为24个簇;
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别得到光度及几何一致性残差、边缘对齐残差和补偿残差;
S3,将所述光度及几何一致性残差和边缘对齐残差进行数据融合,构建基于边缘信息的聚类残差模型;
S4,引入平均背景深度进行运动分割,基于步骤S3构建的模型引入平均背景深度构建引入平均背景深度聚类残差模型;
S5,计算步骤S2中的补偿残差;
S6,将步骤S2中的补偿残差模型与面元3D重建算法结合,得到加权聚类残差;
S7,将步骤S6得到的加权聚类残差加入优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
本发明的优点及有益效果如下:
在传统视觉里程计中无法对动态物体进行处理,只能将其当做干扰噪声去除,当动态物体在图像中占比较大时,如果将其当做噪声去除则会产生信息丢失、图片模糊、无法完成精准定位等问题,同时也会导致鲁棒性下降。
本发明提出将边缘信息和聚类算法相结合并引入平均背景深度,可以正确处理动态物体在图像中占比超过50%的情况,并在信息丢失、图像模糊等情况下也有更好的鲁棒性。首先通过引入K-means聚类算法将图像进行分簇,方便后续处理。同时将RGB-D相机采集到的图像进行边缘处理,得到边缘对齐残差。再将通过聚类处理后的光度和几何残差与边缘对齐残差想融合得到加权聚类残差,通过面元重建算法分离动态簇和静态簇,最后完成里程计的后端优化处理。通过相关算法改进,本发明在鲁棒性和里程计精度上都得的较大改进。
附图说明
图1是本发明的算法框架。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
参见图1,本方法的主要步骤为:
S1,使用K-means聚类法,将图像分为24个簇;
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别得到光度及几何一致性残差、边缘对齐残差和补偿残差;
S3,将S2中光度及几何一致性残差和边缘对齐残差进行数据融合,构建基于边缘信息的聚类残差模型;
S4,引入平均背景深度进行运动分割,基于S3构建引入平均背景深度的聚类残差模型;
S5,计算S2中补偿残差;
S6,将S2中残差模型与面元3D重建算法结合,得到加权聚类残差;
S7,将S3得到的加权聚类残差加入优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
步骤S1的具体实施过程为:
采用K-means聚类法,计算每一个三维空间点距离簇中心点的距离,来确定该空间点属于哪一个簇。通过K-means聚类相关算法及实验数据发现将簇分为24个得到的效果最好。
步骤S2的具体实施过程为:
S21:将聚类后的当前帧Fc坐标变换到关键帧Fk,根据光度及几何一致性构建残差模型,计算光度及几何一致性误差,所述基于光度及几何一致性的残差模型具体公式如下:
Figure BDA0003246270400000021
Figure BDA0003246270400000022
式中,
Figure BDA0003246270400000023
Figure BDA0003246270400000024
分别表示点p对应的光度误差与深度误差,xp为当前帧的第p个像素点,M表示关键帧,D表示当前帧,I为光度图,Z为深度图,|·|Z表示三维坐标点的Z坐标值,ξ为当前帧到关键帧坐标变换的李代数,π-1为逆投影函数,ω为坐标变换函数,T(ξ)表示变换矩阵。
S22:将聚类后的边缘图坐标变换到关键帧的DT图,得到基于边缘对齐的残差模型,具体公式如下:
Figure BDA0003246270400000031
式中,
Figure BDA0003246270400000032
表示边缘对齐残差,
Figure BDA0003246270400000033
表示边缘点p对应的DT误差。DTM表示关键帧的DT误差函数。
步骤S3的具体实施过程为:
S31:将边缘对齐误差引入到光度及几何误差中构建融合边缘信息的残差模型,具体公式如下:
Figure BDA0003246270400000034
Figure BDA0003246270400000035
Figure BDA0003246270400000036
式中,rn表示第n个簇的残差值,
Figure BDA0003246270400000037
分别表示点i对应的光度误差、深度误差和DT误差,αI表示缩放强度,αE表示DT误差在残差模型中所占权重,On表示第n个簇中遮挡的像素个数,En表示第n个簇中所有深度有效的边缘点,F(·)表示Cauchy函数,M表示图像中深度有效点的数量,S(b)表示动态残差集合,bi(p)表示p点所在簇i的得分,
Figure BDA00032462704000000313
分别表示根据噪声对光度和几何残差加权的权重。
S32:为了加强本方法的鲁棒性,重构DT残差的权重公式αE如下:
Figure BDA0003246270400000038
式中,vc为相机运动速度,N为簇总数量,μ为由αI到αE的尺度系数,Sn表示第n个簇中所有深度有效的像素个数,En表示第n个簇中所有深度有效的边缘点。
步骤S4的具体实施过程为:
S41:动态物体一般为独立的刚体且远离背景,通过引入平均背景扩大远离背景部分的簇残差,使得靠近背景的簇偏向分割为静态部分,远离背景的簇分割为动态部分。定义平均背景深度公式为:
Figure BDA0003246270400000039
式中,
Figure BDA00032462704000000310
表示当前帧的平均背景深度,
Figure BDA00032462704000000311
表示上一帧的平均背景深度,dc-1为上一帧分割出的动态簇数量,
Figure BDA00032462704000000312
表示第n个簇的平均背景深度,λD表示深度图的权重。
S42:根据S41构建的公式构建引入平均背景深度后的残差模型为:
Figure BDA0003246270400000041
式中,δn为引入平均背景深度后的第n个簇的残差值,
Figure BDA0003246270400000042
表示第n个簇与背景的距离,rn表示引入平均深度之前第n个簇的残差值。
步骤S5的具体实施过程为:
S51:原始聚类残差准确率不高,运动分割效果差,通过S2中的补偿残差分为SD(b)、SR(b)和SP(b)三项使连续簇取得相似分割。其中SD(b)是量化后的高残差,SR(b)是一个正则化项,SP(b)是一个几何约束项,惩罚较大的平均深度差。
S(b)=SD(b)+SR(b)+SP(b)
Figure BDA0003246270400000043
Figure BDA0003246270400000044
Figure BDA0003246270400000045
式中,Ki表示簇i中的像素个数,Gij为聚类连通函数,为1表示i簇与j簇连通,bi和bj分别表示当前帧中i与j簇的残差,λR表示连通函数的权重,λP表示几何约束项的权重,
Figure BDA0003246270400000046
表示点p所在i簇的残差,
Figure BDA0003246270400000047
表示Cauchy函数阈值的高低边界。K表示簇的个数。
Figure BDA0003246270400000048
式中,E(rn)表示正则后的数值,Gmn为聚类连通函数,为1表示m与n簇连通,rn和rm分别表示当前帧中m与n簇的残差,rn,c-1表示上一帧中第n个簇的残差值,λR表示连通函数的权重,λT表示第n个簇的当前帧和上一帧残差值差值的权重。
步骤S6的具体实施过程为:
S61:根据聚类残差分布的普遍特征,通过使用面元3D重建算法分离高动态簇和静态簇,伪代码如下:
Figure BDA0003246270400000049
Figure BDA0003246270400000051
算法中,
Figure BDA0003246270400000052
为当前帧像素/面元i生存能力,其取值范围为[0,1]对其使用如下的对数几率函数后,可将其取值范围转化为(-∞,+∞)。
Figure BDA0003246270400000053
由静态概率
Figure BDA0003246270400000054
和两个新定义的变量
Figure BDA0003246270400000055
和vD决定,定义见下。
Figure BDA0003246270400000056
Figure BDA0003246270400000057
Figure BDA0003246270400000058
式中,xc为图片中心所处位置,xi为像素/面元i所处位置。σγ表示面元的放缩系数。
S62:通过面元3D算法构建场景分割模型,残差高于残差平均值的簇判定为动态部分,低于阈值的簇作为静态部分或赋权部分加入到位姿估算中,具体公式如下:
Figure BDA0003246270400000059
Figure BDA00032462704000000510
式中,
Figure BDA00032462704000000511
表示阈值分界点,超过该值则考虑动态簇,rmin表示最小残差值,
Figure BDA00032462704000000512
表示平均残差值。
Figure BDA00032462704000000513
在初始化过程中设置得较低,确保初试的地图中只含有经典部分。
步骤S7的具体实施过程为:
S71:采用Cauchy M-estimator模型,通过加静态概率权聚类残差来构建非线性优化函数,用以更准确的估计帧间运动,具体公式如下:
Figure BDA0003246270400000061
Figure BDA0003246270400000062
式中,M表示所有深度有效的点的数量,
Figure BDA0003246270400000063
表示属于第n个簇的点i的权重,c表示F的插入点,r表示对r点进行Cauchy代价评估。
S72:采用边缘信息来评估跟踪质量,将之前跟踪过W帧的边缘投影到当前帧,得到像素点重叠计数图,通过对相同重叠数构建直方图,来获取图像重叠情况,具体公式如下:
Figure BDA0003246270400000064
式中H(j)表示重叠数为j的点的数量,γj表示重叠数为j的点在跟踪质量评估中所占的权重,H(0)表示没有重叠的点的数量,γ0表示没有重叠的点在跟踪质量评估中所占的权重。
完成上述所有步骤之后,便可以得到当前帧最优位姿,并为下一次更新迭代做好了准备。
在TUM动态数据集上进行实验,结果表明本发明方法在动态环境下比现有算法有更高的精度与鲁棒性。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (10)

1.基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于,包括以下步骤:
S1,使用K-means聚类法,将RGB-D相机采集到的图像分为24个簇;
S2,将聚类后的边缘图与灰度图分别坐标变换到关键帧及其DT图上,分别得到光度及几何一致性残差、边缘对齐残差和补偿残差;
S3,将所述光度及几何一致性残差和边缘对齐残差进行数据融合,构建基于边缘信息的聚类残差模型;
S4,引入平均背景深度进行运动分割,基于步骤S3构建的模型引入平均背景深度构建引入平均背景深度聚类残差模型;
S5,计算步骤S2中的补偿残差;
S6,将步骤S2中的补偿残差和S5构建的残差模型与面元3D重建算法结合,得到加权聚类残差;
S7,将步骤S6得到的加权聚类残差加入优化函数中进行位姿估算,并将得到的位姿进行跟踪质量检查,更新下次迭代的变换矩阵或关键帧。
2.根据权利要求1所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:所述K-means聚类法,通过计算每一个三维空间点距离簇中心点的距离,来确定该空间点属于哪一个簇。
3.根据权利要求1所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:所述步骤S2包括:
S21:将聚类后的当前帧Fc坐标变换到关键帧Fk,根据光度及几何一致性构建残差模型,计算光度及几何一致性误差;
S22:将聚类后的边缘图坐标变换到关键帧的DT图,得到基于边缘对齐的残差模型,计算边缘对齐误差。
4.根据权利要求3所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:所述构建的光度及几何一致性残差模型为:
Figure FDA0003246270390000011
rI p(ξ)=IM(ω(xp,ξ))-ID(xp)
式中,rI p
Figure FDA0003246270390000012
分别表示点p对应的光度误差与深度误差,xp为当前帧的第p个像素点,M表示关键帧,D表示当前帧,I为光度图,Z为深度图,T(ξ)表示变换矩阵,|·|Z表示三维坐标点的Z坐标值,ξ为当前帧到关键帧坐标变换的李代数,π-1为逆投影函数,ω为坐标变换函数;
所述边缘对齐残差模型具体公式如下:
Figure FDA0003246270390000013
式中,
Figure FDA0003246270390000014
表示对齐残差,
Figure FDA0003246270390000015
表示边缘点p对应的DT误差,DTM表示关键帧的DT误差函数。
5.根据权利要求1所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:步骤S3所述基于边缘信息的聚类残差模型,具体公式如下:
Figure FDA0003246270390000021
Figure FDA0003246270390000022
Figure FDA0003246270390000023
式中,rn表示第n个簇的残差值,
Figure FDA0003246270390000024
分别表示点i对应的光度误差、深度误差和DT误差,αI表示缩放强度,αE表示DT误差在残差模型中所占权重,On表示第n个簇中遮挡的像素个数,En表示第n个簇中所有深度有效的边缘点,F(·)表示Cauchy函数,M表示图像中深度有效点的数量,S(b)表示动态残差集合,bi(p)表示p点所在i簇的得分,
Figure FDA0003246270390000025
分别表示根据噪声对光度和几何残差加权的权重。
6.根据权利要求5所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:所述DT误差在残差模型中所占权重αE的公式如下:
Figure FDA0003246270390000026
式中,vc为相机运动速度,N为簇总数量,μ为由αI到αE的尺度系数,Sn表示第n个簇中所有深度有效的像素个数,En表示第n个簇中所有深度有效的边缘点。
7.根据权利要求1所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:步骤S4所述构建引入平均背景深度聚类残差模型,具体包括:
S41:定义平均背景深度公式为:
Figure FDA0003246270390000027
式中,
Figure FDA0003246270390000028
表示当前帧的平均背景深度,
Figure FDA0003246270390000029
表示上一帧的平均背景深度,dc-1为上一帧分割出的动态簇数量,
Figure FDA00032462703900000210
表示第n个簇的平均背景深度,λD表示深度图的权重;
S42:根据S41构建的公式构建引入平均背景深度后的残差模型为:
Figure FDA00032462703900000211
式中,δn为引入平均背景深度后的第n个簇的残差值,
Figure FDA00032462703900000212
表示第n个簇与背景的距离,rn表示引入平均深度之前第n个簇的残差值。
8.根据权利要求1-7任一项所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:步骤S5所述补偿残差S(b)分为SD(b)、SR(b)和SP(b)三项,其中SD(b)是量化后的高残差,SR(b)是一个正则化项,SP(b)是一个几何约束项,惩罚较大的平均深度差,具体公式如下:
S(b)=SD(b)+SR(b)+SP(b)
Figure FDA0003246270390000031
Figure FDA0003246270390000032
Figure FDA0003246270390000033
式中,Ki表示簇i中的像素个数,E(rn)表示正则后的数值,Gij为聚类连通函数,为1表示i与j簇连通,bi和bj分别表示当前帧中i簇与j簇的残差,λR表示连通函数的权重,λP表示几何约束项的权重,
Figure FDA0003246270390000034
表示p点所在i簇的残差,
Figure FDA0003246270390000035
表示Cauchy函数阈值的高低边界。
9.根据权利要求8所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:所述步骤6根据聚类残差分布的普遍特征,使用面元3D重建算法将相关图像进行分割,实现动态簇和静态簇的分离,将残差高于残差平均值的簇判定为动态簇,低于阈值的簇作为静态簇或赋权部分加入到位姿估算中。
10.根据权利要1或9所述基于边缘信息的RGB-D相机动态视觉里程计方法,其特征在于:所述步骤S7具体包括:
S71:采用Cauchy M-estimator模型,通过加权聚类残差来构建非线性优化函数,用来准确的估计帧间运动,具体公式如下:
Figure FDA0003246270390000036
Figure FDA0003246270390000037
式中,M表示所有深度有效的点的数量,
Figure FDA0003246270390000038
表示属于第n个簇的点i的权重,c表示F的插入点,r表示对r点进行Cauchy代价评估。
通过最小化非线性优化函数求得最佳的帧间运动;
S72:采用边缘信息来评估跟踪质量,将跟踪过W帧的边缘投影到当前帧中,得到像素点重叠计数图,通过对相同重叠数构建直方图,来获取图像重叠情况,具体公式如下:
Figure FDA0003246270390000039
式中H(j)表示重叠数为j的点的数量,γj表示重叠数为j的点在跟踪质量评估中所占的权重,H(0)表示没有重叠的点的数量,γ0表示没有重叠的点在跟踪质量评估中所占的权重。
CN202111033552.9A 2021-09-03 2021-09-03 基于边缘信息的rgb-d相机动态视觉里程计方法 Active CN113837243B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111033552.9A CN113837243B (zh) 2021-09-03 2021-09-03 基于边缘信息的rgb-d相机动态视觉里程计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111033552.9A CN113837243B (zh) 2021-09-03 2021-09-03 基于边缘信息的rgb-d相机动态视觉里程计方法

Publications (2)

Publication Number Publication Date
CN113837243A true CN113837243A (zh) 2021-12-24
CN113837243B CN113837243B (zh) 2024-05-24

Family

ID=78962213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111033552.9A Active CN113837243B (zh) 2021-09-03 2021-09-03 基于边缘信息的rgb-d相机动态视觉里程计方法

Country Status (1)

Country Link
CN (1) CN113837243B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116245899A (zh) * 2022-12-29 2023-06-09 淮北矿业(集团)有限责任公司物业分公司 一种基于Canny边缘的动态视觉里程计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法
CN109658449A (zh) * 2018-12-03 2019-04-19 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法
CN111950599A (zh) * 2020-07-20 2020-11-17 重庆邮电大学 一种动态环境下融合边缘信息的稠密视觉里程计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法
CN109658449A (zh) * 2018-12-03 2019-04-19 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法
CN111950599A (zh) * 2020-07-20 2020-11-17 重庆邮电大学 一种动态环境下融合边缘信息的稠密视觉里程计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RALUCA SCONA等: ""StaticFusion: Background Reconstruction for Dense RGB-D SLAM in Dynamic Environments"", 《2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)》, pages 3849 - 3856 *
胡章芳等: ""基于边缘信息的动态视觉里程计"", 《华中科技大学学报(自然科学版)》, pages 1 - 8 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116245899A (zh) * 2022-12-29 2023-06-09 淮北矿业(集团)有限责任公司物业分公司 一种基于Canny边缘的动态视觉里程计方法
CN116245899B (zh) * 2022-12-29 2024-03-26 淮北矿业(集团)有限责任公司物业分公司 一种基于Canny边缘的动态视觉里程计方法

Also Published As

Publication number Publication date
CN113837243B (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
Guizilini et al. Semantically-guided representation learning for self-supervised monocular depth
Williams Depth from camera motion in a real world scene
CN111696118B (zh) 动态场景下基于语义分割与图像修复的视觉回环检测方法
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
CN109974743B (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计
CN113111947A (zh) 图像处理方法、装置和计算机可读存储介质
CN111950599B (zh) 一种动态环境下融合边缘信息的稠密视觉里程计方法
CN112686952A (zh) 一种图像光流计算系统、方法及应用
CN117274515A (zh) 基于ORB和NeRF映射的视觉SLAM方法及系统
CN115035172A (zh) 基于置信度分级及级间融合增强的深度估计方法及系统
CN113362377B (zh) 一种基于单目相机的vo加权优化方法
CN113421210B (zh) 一种基于双目立体视觉的表面点云重建方法
CN113837243B (zh) 基于边缘信息的rgb-d相机动态视觉里程计方法
CN111160362B (zh) 一种fast特征均匀化提取与帧间特征误匹配去除方法
CN116310128A (zh) 基于实例分割与三维重建的动态环境单目多物体slam方法
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法
CN114399532A (zh) 一种相机位姿确定方法和装置
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法
CN114359332A (zh) 基于深度图像的目标跟踪方法、装置、设备和介质
CN113538290A (zh) 基于人工智能的农业航拍图像处理方法及系统
CN113592947A (zh) 一种半直接法的视觉里程计实现方法
CN113159158A (zh) 一种基于生成对抗网络的车牌矫正与重构方法及系统
CN112949389A (zh) 一种基于改进目标检测网络的雾霾图像目标检测方法
CN116740477B (zh) 基于稀疏光流的动态像素点分布识别方法、系统及设备
CN113326716B (zh) 面向装配现场环境装配指导ar应用定位的回环检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant