CN109887029A - 一种基于图像颜色特征的单目视觉里程测量方法 - Google Patents

一种基于图像颜色特征的单目视觉里程测量方法 Download PDF

Info

Publication number
CN109887029A
CN109887029A CN201910042854.9A CN201910042854A CN109887029A CN 109887029 A CN109887029 A CN 109887029A CN 201910042854 A CN201910042854 A CN 201910042854A CN 109887029 A CN109887029 A CN 109887029A
Authority
CN
China
Prior art keywords
frame
color
map
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910042854.9A
Other languages
English (en)
Inventor
付永忠
余威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201910042854.9A priority Critical patent/CN109887029A/zh
Publication of CN109887029A publication Critical patent/CN109887029A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像颜色特征的单目视觉里程测量方法,使用图像采集设备将采集到的彩色图像序列通过传输接口传到电脑上,对输入的图像帧提取特征并进行特征匹配和计算图像的帧描述子,进行算法的初始化,并且建立初始的地图点,同时将初始的两帧都作为关键帧,将成功初始化的地图点投影到当前帧中,并对两帧图像之间进行基于重投影误差的捆集优化,得到两帧之间相机的位姿变换关系来跟踪相机的运动,最后根据与上一关键帧和地图中已有关键帧的相似度选择新的关键帧,将新的关键帧加入到地图当中,更新地图。本发明具有更鲁棒的特征匹配效果,使用的设备简单,成本较低,具有较高的工程应用价值和更加广泛的应用场景。

Description

一种基于图像颜色特征的单目视觉里程测量方法
技术领域
本发明属于计算机视觉中的视觉定位算法技术领域,尤其涉及一种基于图像颜色特征的单目视觉里程测量方法。
背景技术
随着计算机视觉技术的不断发展,通过视觉进行定位的技术已经运用在诸如无人机技术、智能驾驶技术、增强现实与虚拟现实等众多科技领域。视觉里程计作为这些定位导航技术中的重要环节之一,越来越得到科研界和工业界的关注。视觉里程计技术即通过图像传感器获取未知环境的图像信息来估计载体的运动轨迹。
现有的视觉定位系统按照使用的传感器的不同可分为单目相机系统、立体相机系统和深度相机系统。其中立体相机系统结构复杂,不便安装,相机的标定过程繁杂,算法的计算量大。而深度相机系统通过外加激光或者红外线主动获取环境的深度信息,而激光和红外线易受外界自然光的影响,从而导致系统定位失败。另外根据对获取图像信息的使用方式不同,又可分为基于特征点的间接法和基于亮度的直接法。
上述几种定位方案各有优缺点。将这些方法中的优点提取出来并加以融合,构造出更加稳定、精确的视觉里程计算法,具有重大的理论研究意义和工程实践价值。
发明内容
本发明根据现有技术中存在的问题,提出了一种基于图像颜色特征的单目视觉里程测量方法,能够有效提高视觉里程计的测量方法的准确性、快速性及鲁棒性。
本发明所采用的技术方案如下:
一种基于图像颜色特征的单目视觉里程测量方法,包括以下步骤:
步骤1,采集彩色图像:
步骤2,对输入的图像帧提取特征并进行特征匹配和计算图像的帧描述子;
步骤3,进行算法的初始化过程,对满足条件的初始两帧图像进行初始化,并且建立初始的地图点,同时将初始的两帧都作为关键帧;
步骤4,将成功初始化的地图点投影到当前帧中,并对两帧图像之间进行基于重投影误差的捆集优化(Bundle Adjustment),得到两帧之间相机的位姿变换关系来跟踪相机的运动;
步骤5,根据与上一关键帧和地图中已有关键帧的相似度选择新的关键帧,并将新的关键帧加入到地图当中,更新地图。
进一步,所述步骤2中特征匹配的方法为:
步骤2.1,特征点匹配:提取图像帧的ORB角点,对相邻帧进行特征点匹配,得到初步的匹配点对(P,Q)和特征点对应的尺度空间;
步骤2.2,优化特征匹配:根据步骤2.1中得到的匹配点对(P,Q)和特征点对应的尺度空间(σPQ),计算P在对应图像帧尺度空间σP的3*3邻域HSV颜色模型的颜色矩,同时计算Q在对应图像帧尺度空间σQ的3*3邻域HSV颜色模型的颜色矩;
步骤2.3,根据步骤2.2中得到的带有颜色矩的匹配点对,利用欧式距离计算每对匹配点对颜色矩的相似度。当欧式距离D在既定的阈值内,匹配点对保留;反之,则剔除,最后使用随机抽样一致性算法再次筛选,得到最终的匹配点对。
欧式距离计算公式为:
式中,D(p[n],q[n])为点对(P,Q)第n个点对的欧式距离,为点对(P,Q)中P对应的颜色矩第i维向量,为点对(P,Q)中Q对应的颜色矩第i维向量。
向量表示为
Icolor=[uhh,sh,uss,ss,uvv,sv]
其中,uhh,sh分别为颜色分量h的均值、方差和斜度,uss,ss分别为颜色分量s的均值、方差和斜度,uvv,sv颜色分量v的均值、方差和斜度。
步骤2.4,根据步骤2.3中得到的匹配点对,如果匹配点数的数量达到一定数量,则进入下一步;如果点对数量少于一定数量,返回步骤2.1重新选择两帧图像提取特征并进行特征匹配;
进一步,所述步骤3包括以下步骤:
步骤3.1,对匹配的点对进行三角定位获得初始地图点;
步骤3.2,根据步骤2.3获得的匹配点对获得姿态变换矩阵;具体过程如下:当场景为平面结构时计算两帧图像的单应矩阵,将第一帧图像的特征点根据对极几何约束重投影到第二帧图像,计算所有特征点的重投影误差,根据重投影误差是否小于设定阈值筛选出满足要求的初始点对,之后根据这些初始点对建立初始两帧之间的约束方程,通过分解单应性矩阵获得姿态变换矩阵,将对应着最多初始点对数目的姿态变换矩阵作为最佳的姿态变换矩阵,以此作为最终的两帧之间的姿态变换矩阵。当场景为一般情况时则计算两帧的基础矩阵获得初始两帧的位姿变换关系;
步骤3.3,根据步骤3.2得到的姿态变换矩阵进一步筛选初始点对:若此时初始点对数目小于某个阈值,则判定初始化失败,继续读入下一帧并返回步骤2.1,若此时初始点对数目大于某个阈值,则认为初始化成功;
步骤3.4,根据步骤3.3得到初始化成功的姿态变换矩阵所对应的两帧图像,计算图像的帧描述子,并将两帧图像都作为关键帧,再将关键帧和初始地图点加入到地图中。
进一步,所述步骤4包括以下步骤:
步骤4.1,将初始化成功后的地图点投影到当前图像帧和前面的图像帧,计算地图点重投影的位置和在图像中观测的重投影误差;
步骤4.2,根据步骤4.1得到的重投影误差,在李代数上构建基于重投影误差的无约束的非线性优化问题其中,优化方法使用高斯牛顿法;最终得到两帧之间相机的位姿变换关系,来跟踪相机的运动;
进一步,所述步骤5包括以下步骤:
计算当前帧的帧描述子,比较当前帧的帧描述子和上一关键帧的帧描述子、地图已有关键帧的帧描述子的相似度,当相似度小于一定阈值时,把当前帧作为关键帧加入到地图中;所述帧描述子相似度是通过上述帧描述子的欧式距离计算。
本发明的有益效果:
本发明提供一种视觉里程测量方法,采用基于图像颜色特征的特征点匹配方法,降低了特征的误匹配率。同时采用非线性的数值优化方法对系统状态进行了优化,另外本发明仅使用单个相机进行定位,设备简单成本低,易于实现。
附图说明
图1是本发明的方法初始化流程框图;
图2是本发明相机跟踪和对地图进行更新的流程框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。
如图1所示,本发明提出了一种基于图像颜色特征的单目视觉里程测量方法,具体过程如下:
步骤1,使用单目彩色图像采集设备将采集到的彩色图像序列通过传输接口传到电脑上。
步骤2,对输入的图像帧提取特征并进行特征匹配和计算图像的帧描述子。包括以下步骤:
步骤2.1,特征点匹配:提取图像帧的ORB角点,对相邻帧进行特征点匹配,得到初步的匹配点对(P,Q)和特征点对应的尺度空间(σPQ);
步骤2.2,优化特征匹配:根据步骤2.1)中得到的匹配点对(P,Q)和特征点对应的尺度空间(σPQ),计算P在对应图像帧尺度空间σP的3*3邻域HSV颜色模型的颜色矩,同时计算Q在对应图像帧尺度空间σQ的3*3邻域HSV颜色模型的颜色矩;一阶矩表示颜色平均值,二阶矩表示颜色方差,三阶矩表示颜色的偏斜度。三个颜色矩的数学表式为:
式中:uk、σk、sk分别表示颜色分量k的均值、方差和斜度,pk(i,j)表示图像中第i行,第j个列像素的第k个颜色分量。特征点的3个颜色分量的3阶颜色矩组成一个9维的向量,可表示为:
Icolor=[uhh,sh,uss,ss,uvv,sv] (1)
其中,uhh,sh分别为颜色分量h的均值、方差和斜度,uss,ss分别为颜色分量s的均值、方差和斜度,uvv,sv颜色分量v的均值、方差和斜度。
步骤2.3,根据步骤,2.2中的得到的带有颜色矩的匹配点对,利用欧式距离计算每对配点对颜色矩的相似度。欧式距离计算公式为:
当欧式距离D在既定的阈值内,匹配点对保留;反之,则剔除,最后使用随机抽样一致性(Random Sample Consensus,RANSAC)算法再次筛选,得到最终的匹配点对。
步骤2.4,根据步骤2.3得到的最终匹配点对,计算图像帧的帧描述子,帧描述子用图像对应特征点的BRIEKF描述子和颜色矩向量共同描述。
步骤3,进行算法的初始化过程,对满足条件的初始两帧图像进行初始化具体过程如下:
步骤3.1,对初始的两帧进行全局特征匹配,得到匹配后的图像,然后优化特征匹配,判断优化后的匹配点对是否达到一定数量,然后对匹配的点对进行三角定位获得初始地图点。
步骤3.2,根据步骤2.3获得的匹配点对,当场景为平面结构时计算两帧图像的单应矩阵,将第一帧图像的特征点根据对极几何约束重投影到第二帧图像,计算所有特征点的重投影误差,根据重投影误差是否小于设定阈值筛选出满足要求的初始点对,之后根据这些初始点对建立初始两帧之间的约束方程,通过分解单应性矩阵获得姿态变换矩阵,将对应着最多初始点对数目的姿态变换矩阵作为最佳的姿态变换矩阵,以此来作为最终的两帧之间的姿态变换矩阵。当场景为一般情况时则计算两帧的基础矩阵获得初始两帧的位姿变换关系;
步骤3.3,根据步骤3.2得到的姿态变换进一步筛选内点:若此时内点数目小于某个阈值,则判定初始化失败,继续读入下一帧并返回步骤2.1,若此时内点数目大于某个阈值,则认为初始化成功;
步骤3.4,根据步骤3.3得到初始化成功的两帧图像,计算图像帧的帧描述子,并将初始两帧都作为关键帧加入到地图中。
步骤4,如图2所示将成功初始化的地图点投影到当前帧中,并对两帧图像之间进行基于重投影误差的捆集优化(Bundle Adjustment),得到两帧之间相机的位姿变换关系来跟踪相机的运动。包括以下步骤:
步骤4.1,将初始化成功后的地图点投影到当前图像帧和前面的图像帧,计算地图点重投影的位置和在图像中观测的位置偏差,
步骤4.2,根据步骤4.1得到的重投影误差,并在李代数上构建基于重投影误差的无约束的非线性优化问题,优化方法使用高斯牛顿法。
步骤5,根据与上一关键帧和地图中已有关键帧的相似度选择新的关键帧,并将新的关键帧加入到地图当中,更新地图,包括以下步骤:
计算当前帧的帧描述子,比较当前帧的帧描述子和上一关键帧的帧描述子、地图已有关键帧的帧描述子的相似度,当相似度小于一定阈值时,把当前帧作为关键帧加入到地图中;
根据上述当前帧和上一关键帧、地图已有关键帧的相似度用帧描述子的欧式距离来表示。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (10)

1.一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,包括以下步骤:
步骤1,采集彩色图像:
步骤2,对输入的图像帧提取特征并进行特征匹配和计算图像的帧描述子;
步骤3,进行算法的初始化过程,对满足条件的初始两帧图像进行初始化,并且建立初始的地图点,同时将初始的两帧都作为关键帧;
步骤4,将成功初始化的地图点投影到当前帧中,并对两帧图像之间进行基于重投影误差的捆集优化,得到两帧之间相机的位姿变换关系来跟踪相机的运动;
步骤5,根据与上一关键帧和地图中已有关键帧的相似度选择新的关键帧,并将新的关键帧加入到地图当中,更新地图。
2.根据权利要求1所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,所述步骤2中特征匹配的方法为:
步骤2.1,特征点匹配:提取图像帧的ORB角点,对相邻帧进行特征点匹配,得到初步的匹配点对(P,Q)和特征点对应的尺度空间(σPQ);
步骤2.2,优化特征匹配:根据步骤2.1中得到的匹配点对(P,Q)和的尺度空间(σPQ),分别计算P、Q在对应图像帧尺度空间的3*3邻域HSV颜色模型的颜色矩;
步骤2.3,对步骤2.2中得到的带有颜色矩的匹配点进行筛选后得到匹配点对。
3.根据权利要求2所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,对匹配点对筛选的方法为:
步骤2.3.1,利用欧式距离计算每对匹配点对颜色矩的相似度;
步骤2.3.2,将欧式距离D与所设定的阈值进行比较,欧式距离D在既定的阈值内,匹配点对保留;反之,则剔除;
步骤2.3.3,对保留的匹配点对使用随机抽样一致性算法再次筛选,得到最终的匹配点对。
4.根据权利要求3所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,欧式距离计算公式为:
式中,D(p[n],q[n])为点对(P,Q)第n个点对的欧式距离,为点对(P,Q)中P对应的颜色矩第i维向量,为点对(P,Q)中Q对应的颜色矩第i维向量。
5.根据权利要求4所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,所述向量表示为:
Icolor=[uhh,sh,uss,ss,uvv,sv]
其中,uhh,sh分别为颜色分量h的均值、方差和斜度,uss,ss分别为颜色分量s的均值、方差和斜度,uvv,sv颜色分量v的均值、方差和斜度。
6.根据权利要求1所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,所述步骤3包括以下步骤:
步骤3.1,对匹配点对进行三角定位获得初始地图点;
步骤3.2,根据步骤2.3获得的匹配点对获得姿态变换矩阵;
步骤3.3,根据姿态变换矩阵进一步筛选初始点对:若此时初始点对数目小于某个阈值,则判定初始化失败,继续读入下一帧并返回步骤2.1,若此时初始点对数目大于某个阈值,则认为初始化成功;
步骤3.4,根据步骤3.3得到初始化成功的姿态变换矩阵所对应的两帧图像,计算图像的帧描述子,并将两帧图像都作为关键帧,再将关键帧和初始地图点加入到地图中。
7.根据权利要求6所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,所述获得姿态变换矩阵的过程如下:当场景为平面结构时计算两帧图像的单应矩阵,将第一帧图像的特征点根据对极几何约束重投影到第二帧图像,计算所有特征点的重投影误差,根据重投影误差是否小于设定阈值筛选出满足要求的初始点对,根据这些初始点对建立初始两帧之间的约束方程,通过分解单应性矩阵获得姿态变换矩阵,将对应着最多初始点对数目的姿态变换矩阵作为最佳的姿态变换矩阵,以此来作为最终的两帧之间的姿态变换矩阵;当场景为一般情况时则计算两帧的基础矩阵获得初始两帧的位姿变换关系。
8.根据权利要求1所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,所述步骤4包括以下步骤:
步骤4.1,将初始化成功后的地图点投影到当前图像帧和前面的图像帧,计算地图点重投影的位置和在图像中观测的重投影误差;
步骤4.2,根据得到的重投影误差,在李代数上构建基于重投影误差的无约束的非线性优化问题;最终得到两帧之间相机的位姿变换关系,来跟踪相机的运动。
9.根据权利要求8所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,其中,所述非线性优化问题使用高斯牛顿法进行求解。
10.根据权利要求1所述的一种基于图像颜色特征的单目视觉里程测量方法,其特征在于,所述步骤5包括以下步骤:计算当前帧的帧描述子,比较当前帧的帧描述子和上一关键帧的帧描述子、地图已有关键帧的帧描述子的相似度,当相似度小于一定阈值时,把当前帧作为关键帧加入到地图中;所述帧描述子相似度是通过上述帧描述子的欧式距离计算。
CN201910042854.9A 2019-01-17 2019-01-17 一种基于图像颜色特征的单目视觉里程测量方法 Pending CN109887029A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910042854.9A CN109887029A (zh) 2019-01-17 2019-01-17 一种基于图像颜色特征的单目视觉里程测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910042854.9A CN109887029A (zh) 2019-01-17 2019-01-17 一种基于图像颜色特征的单目视觉里程测量方法

Publications (1)

Publication Number Publication Date
CN109887029A true CN109887029A (zh) 2019-06-14

Family

ID=66926092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910042854.9A Pending CN109887029A (zh) 2019-01-17 2019-01-17 一种基于图像颜色特征的单目视觉里程测量方法

Country Status (1)

Country Link
CN (1) CN109887029A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110274598A (zh) * 2019-06-24 2019-09-24 西安工业大学 一种机器人单目视觉鲁棒定位估计方法
CN111795704A (zh) * 2020-06-30 2020-10-20 杭州海康机器人技术有限公司 一种视觉点云地图的构建方法、装置
CN112198878A (zh) * 2020-09-30 2021-01-08 深圳市银星智能科技股份有限公司 一种即时地图构建方法、装置、机器人及存储介质
CN112950715A (zh) * 2021-03-04 2021-06-11 杭州迅蚁网络科技有限公司 无人机的视觉定位方法、装置、计算机设备和存储介质
CN113223007A (zh) * 2021-06-28 2021-08-06 浙江华睿科技股份有限公司 视觉里程计的实现方法、装置及电子设备
CN113409368A (zh) * 2020-03-16 2021-09-17 北京京东乾石科技有限公司 建图方法及装置、计算机可读存储介质、电子设备
CN113552864A (zh) * 2020-04-15 2021-10-26 深圳市镭神智能系统有限公司 自移动主体的定位方法、装置、自移动主体及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104180818A (zh) * 2014-08-12 2014-12-03 北京理工大学 一种单目视觉里程计算装置
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104180818A (zh) * 2014-08-12 2014-12-03 北京理工大学 一种单目视觉里程计算装置
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张国良等: "《移动机器人的SLAM与VSLAM方法》", 西安:西安交通大学出版社, pages: 5 *
秦国威等: "基于HSV图像匹配的改进型RatSLAM算法研究", 《四川理工学院学报(自然科学版)》, vol. 31, no. 5, pages 1 - 3 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110274598A (zh) * 2019-06-24 2019-09-24 西安工业大学 一种机器人单目视觉鲁棒定位估计方法
CN110274598B (zh) * 2019-06-24 2023-03-24 西安工业大学 一种机器人单目视觉鲁棒定位估计方法
CN113409368A (zh) * 2020-03-16 2021-09-17 北京京东乾石科技有限公司 建图方法及装置、计算机可读存储介质、电子设备
CN113409368B (zh) * 2020-03-16 2023-11-03 北京京东乾石科技有限公司 建图方法及装置、计算机可读存储介质、电子设备
CN113552864A (zh) * 2020-04-15 2021-10-26 深圳市镭神智能系统有限公司 自移动主体的定位方法、装置、自移动主体及存储介质
CN111795704A (zh) * 2020-06-30 2020-10-20 杭州海康机器人技术有限公司 一种视觉点云地图的构建方法、装置
CN112198878A (zh) * 2020-09-30 2021-01-08 深圳市银星智能科技股份有限公司 一种即时地图构建方法、装置、机器人及存储介质
CN112198878B (zh) * 2020-09-30 2021-09-28 深圳市银星智能科技股份有限公司 一种即时地图构建方法、装置、机器人及存储介质
CN112950715A (zh) * 2021-03-04 2021-06-11 杭州迅蚁网络科技有限公司 无人机的视觉定位方法、装置、计算机设备和存储介质
CN112950715B (zh) * 2021-03-04 2024-04-30 杭州迅蚁网络科技有限公司 无人机的视觉定位方法、装置、计算机设备和存储介质
CN113223007A (zh) * 2021-06-28 2021-08-06 浙江华睿科技股份有限公司 视觉里程计的实现方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN109887029A (zh) 一种基于图像颜色特征的单目视觉里程测量方法
CN108242079B (zh) 一种基于多特征视觉里程计和图优化模型的vslam方法
US11030525B2 (en) Systems and methods for deep localization and segmentation with a 3D semantic map
CN107341814B (zh) 基于稀疏直接法的四旋翼无人机单目视觉测程方法
Kang et al. Detection and tracking of moving objects from a moving platform in presence of strong parallax
CN103886107B (zh) 基于天花板图像信息的机器人定位与地图构建系统
CN107610175A (zh) 基于半直接法和滑动窗口优化的单目视觉slam算法
CN111311666A (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
CN109974743A (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的rgb-d视觉里程计
CN110472542A (zh) 一种基于深度学习的红外图像行人检测方法及检测系统
CN109523589A (zh) 一种更鲁棒的视觉里程计的设计方法
CN103093198B (zh) 一种人群密度监测方法及装置
CN113393522A (zh) 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN109191255B (zh) 一种基于无监督特征点检测的商品对齐方法
CN112233179A (zh) 一种视觉里程计测量方法
CN110070578B (zh) 一种回环检测方法
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN106530407A (zh) 一种用于虚拟现实的三维全景拼接方法、装置和系统
CN110390685A (zh) 一种基于事件相机的特征点跟踪方法
Bourdis et al. Camera pose estimation using visual servoing for aerial video change detection
CN117949942B (zh) 基于雷达数据和视频数据融合的目标跟踪方法及系统
CN114708293A (zh) 基于深度学习点线特征和imu紧耦合的机器人运动估计方法
CN115471748A (zh) 一种面向动态环境的单目视觉slam方法
Gao et al. Unsupervised learning of monocular depth and ego-motion in outdoor/indoor environments
CN111275764A (zh) 基于线段阴影的深度相机视觉里程测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination