CN109813334B - 基于双目视觉的实时高精度车辆里程计算方法 - Google Patents

基于双目视觉的实时高精度车辆里程计算方法 Download PDF

Info

Publication number
CN109813334B
CN109813334B CN201910191645.0A CN201910191645A CN109813334B CN 109813334 B CN109813334 B CN 109813334B CN 201910191645 A CN201910191645 A CN 201910191645A CN 109813334 B CN109813334 B CN 109813334B
Authority
CN
China
Prior art keywords
feature
point
points
feature point
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910191645.0A
Other languages
English (en)
Other versions
CN109813334A (zh
Inventor
马天力
陈阳泉
杨琼楠
高嵩
曹凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN201910191645.0A priority Critical patent/CN109813334B/zh
Publication of CN109813334A publication Critical patent/CN109813334A/zh
Application granted granted Critical
Publication of CN109813334B publication Critical patent/CN109813334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及基于双目视觉的实时高精度车辆里程计算方法,该方法包括以下步骤:1、采用视觉传感器获取图像序列;2、对获取的前后帧立体图像利用改进FAST角点检测算法提取特征点;3、利用SIFT算法计算特征点的主方向并生成特征描述子;4、根据生成的特征描述子进行特征匹配,并采用自适应RANSAC算法剔除误匹配点;5、根据匹配点集误差构造目标函数,求解目标函数得到运动估计信息;6、利用粒子滤波进行最优估计,减小误差。本发明采用改进FAST算法提取特征点,使得到的特征点更加稳定、可靠;使用自适应RANSAC算法剔除误匹配点,减少了算法的迭代次数,从而减少了计算量,降低了算法的运行时间;拥有很强的鲁棒性,而且提高了算法的运行效率和精确度。

Description

基于双目视觉的实时高精度车辆里程计算方法
技术领域
本发明属于智能车辆自主定位技术领域,尤其涉及一种基于双目视觉的实时高精度车辆里程计算方法。
背景技术
智能车作为智能交通系统中发展最活跃的一部分,受到了世界各研究机构和高校的重点关注。目前,许多国家都制定了智能车发展战略,并且随着科技的高速发展,智能车辆在大型工厂、公园内都已经得到了成功应用。里程计作为智能车系统的一部分,发挥着承上启下的重要作用,是智能车完成其它工作的基础和前提,同时也是智能车完成辅助驾驶和自主行为的重要保障。
基于视觉传感器的里程计技术在二十世纪六十年代被提出,到现在为止已经有五十多年的研究历史,自从被提出以来一直是计算机视觉和机器人领域研究的重点。视觉里程计是利用车载的视觉传感器(相机)采取的图像序列来估计车辆的六自由度运动信息,包括旋转和平移。视觉里程计的实现主要包括以下三个步骤:第一步是通过安装在车上的相机来采取图像序列;第二步从采取的图像中提取特征点并且与先前帧的图像特征点进行匹配;第三步是运动估计,利用第二步匹配的特征点来计算前后两个时刻之间车辆的相对运动Tx,然后通过将Tx与先前的位姿连接起来计算车辆当前的位姿信息,从而完成视觉定位。
视觉里程计主要依靠视觉传感器来得到车辆的具体位置信息,与其它传感器相比具有成本比较低、能耗小、安装方便、便携性好、抗电磁干扰能力强等优点。其次,从视觉传感器中采集到丰富的场景信息在用到车辆自主定位的同时还可以为更高级的功能如目标检测、目标识别、障碍物的避障以及三维地图构建等提供必不可少的信息。另外,与内置传感器定位的方法相比,视觉里程计技术不会受轮胎滑移的影响,也不会产生误差累积。但是视觉里程计系统中的图像处理计算成本高,实时性差,而且获取的外部场景信息复杂,具有尺度不确定性,容易引入误差,还会受到光照变化、阴影遮挡、视角变化等影响。所以说视觉里程计仍然面临许多挑战。
发明内容
本发明的目的是针对现有车辆视觉里程计技术的缺点与不足,提出了一种基于双目视觉的实时高精度车辆里程计算方法。
该方法包括以下步骤:
基于双目视觉的实时高精度车辆里程计算方法,该方法包括以下步骤:
步骤1、采用视觉传感器获取图像序列;
步骤2、对获取的前后帧立体图像利用改进FAST角点检测算法提取特征点;
步骤3、利用SIFT算法计算特征点的主方向并生成特征描述子;
步骤4、根据生成的特征描述子进行特征匹配,并采用自适应RANSAC算法剔除误匹配点;
步骤5、根据匹配点集误差构造目标函数,求解目标函数得到运动估计信息;
步骤6、利用粒子滤波进行最优估计,减小误差。
进一步的,步骤2中,使用改进的FAST角点检测算法提取特征点,具体步骤如下:
S1、获取一张图片;
S2、在图片中任意选择一个像素点p,假设它的亮度是Ip
S3、设定一个阈值T;
S4、以像素点p为中心,分别选取半径为3和2的两个同心圆上的16和12个像素点;
S5、将选取的这些像素点的亮度分别于Ip+T或Ip-T相比较;
S6、如果在这两个同心圆上分别有M和N像素点的亮度大于Ip+T或小于Ip-T,则可以认为p是一个特征点;
S7、循环S2-S6,对每一个像素点进行上述操作;
S8、对选取的特征点进行非极大值抑制,并记录最终特征点的位置。
进一步的,步骤3中,根据得到的特征点的位置信息,利用SIFT算法计算特征点的主方向以及特征描述子,具体方法如下:
对于一个特征点,以它为中心,计算它邻域像素的梯度和方向,用直方图进行统计,得到特征点邻域像素的梯度分布,直方图中的峰值就是特征点的主方向;梯度和方向的计算公式如下:
Figure BDA0001994480500000031
θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))  (2)
以关键点为中心选取16×16的邻域窗口,关键点所在的行和列不取,计算邻域窗口内所有像素点的梯度模值和梯度方向,然后将每个窗口分成4×4的子区域,总共16个子区域,每个子区域包含8个方向上的信息,一共有128个方向信息,生成128维的SIFT特征向量,即128维的特征描述子。
进一步的,步骤4中,根据生成的特征描述子进行特征匹配,具体方法如下:
对于t-1时刻这一帧图像上的特征点集{P}中的每一个特征点p,从t时刻这一帧图像上的特征点集{P′}中找到与特征点p的特征向量最近邻的特征点和次近邻的特征点,并记录它们之间的距离;
若最近邻特征点的距离与次近邻特征点的距离比小于等于设定的阈值T,则认为特征点p与最近邻的特征点p′是一对匹配点,记为(p,p′);
若最近邻特征点的距离与次近邻特征点的距离比大于设定的阈值T,则认为特征点p在特征点集{P′}中没有相匹配的特征点;
由以上可知,对每一个特征点都进行上述操作,并记录匹配上的特征点对,最后可以得到一个匹配点对的集合{(Pn,P′n)};
自适应RANSAC算法剔除误匹配点,具体方法如下:
S1、对于得到的粗匹配点对集合{(Pn,P′n)},计算集合中每对匹配点对之间的欧氏距离,并按从小到大的顺序进行排列;
S2、取排在前20%的匹配点对组成新的样本点对集合U;
S3、从U中随机选取6个匹配点对,利用其中4个计算变换模型Hi
S4、利用剩余的2个对Hi进行验证,如果通过验证,则进行下一步;否则,舍弃Hi,重新返回Step3;
S5、对匹配点对集合{(Pn,P′n)}根据变化模型Hi计算对称变换误差d,若d小于设定的值t,则认为是一个内点,并统计内点的数量M;
S6、重复Step3-Step5三步N次,若M大于设定的阈值S,则利用M重新估算变换模型H,即为最优的变换模型。
进一步的,步骤5中,根据匹配点集的误差构造目标函数,求解目标函数得到运动估计信息,具体方法如下:
根据步骤(4)可以得出一组匹配好的3D点:
Pm={p1,L,pm},P′m={p′1,L,p′m}  (3)
到一个欧式变换R和t,使得
Figure BDA0001994480500000041
这个问题可以用迭代最近点(ICP)来求解,这里采用的方式SVD为代表的方法进行求解,先定义第i对点的误差项:
ei=pi-(Rp′i+t)  (5)
然后构建最小二乘函数,求使误差平方和达到极小的R,t:
Figure BDA0001994480500000042
最后使用SVD方法求解出两帧图像之间的运动估计信息(R,t),即Tk
进一步的,步骤6中,利用粒子滤波进行最优估计,减小误差,具体方法如下:
由步骤5得到的运动估计信息,通过计算Ck=Ck-1Tk来连接转换,得到运动系统的状态方程和观测方程如式(7),(8)所示:
xk=f(xk-1,uk,wk)  (7)
zk=h(xk,vk)  (8)
其中,xk为k时刻系统的状态变量,uk为系统的控制变量,zk为k时刻的观测变量,wk和vk分别为输入的白噪声和观测噪声。基于粒子滤波的视觉里程计算法是先利用k-1时刻的位置xk-1和系统噪声vk-1来预测k时刻的位置
Figure BDA0001994480500000043
然后在根据k时刻的观测值zk来更新k时刻的位xk置,就这样不停的循环迭代以得到车辆的最优位姿估计值。
本发明与现有的技术相比,具有以下优点:
1、本发明采用改进FAST算法提取特征点,使得到的特征点更加稳定、可靠;
2、本发明使用自适应RANSAC算法剔除误匹配点,减少了算法的迭代次数,从而减少了计算量,降低了算法的运行时间;
3、本发明拥有很强的鲁棒性,而且提高了算法的运行效率和精确度。
附图说明
图1为本发明实施例改进FAST算法检测过程示意图。
图2为本发明实施例改进FAST-SIFT融合算法框图。
图3为本发明实施例自适应RANSAC算法剔除误匹配点后的结果。
图4为本发明实施例基于双目视觉的实时高精度车辆里程计算法的方案流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明的目的在于设计一种实时高精度的车辆视觉里程计算法,采用车载的双目相机完成智能车辆的自主定位和导航的需求。该算法利用改进FAST算法提取特征点,采用自适应RANSAC算法剔除误匹配点,解决了传统里程计算法抗干扰能力弱、耗费时间长、计算复杂度高等一系列问题,提高了算法的运行效率和鲁棒性。
算法的整体方案流程图如图4所示:
(1)将双目相机固定在智能车外围顶端,获取图像序列,通过USB传输到车载处理器上;
(2)使用改进FAST角点检测算法提取特征点;
对获取的第t帧图像采用改进FAST算法提取特征点,得到一个特征点集合P;
(3)利用SIFT算法计算特征描述符;
根据上一步得到的每一个特征点的位置信息,选取特征点的邻域像素,计算特征点的主方向和特征描述子;
(4)特征点匹配以及采用自适应RANSAC算法剔除误匹配点;
根据第t-1帧图像得到的特征点集合P′通过快速近似最近邻算法完成特征点粗匹配,并计算粗匹配点之间的欧氏距离,按从小到大的顺序排列;根据匹配对之间的欧式距离越短,说明它们之间的相似度越高的原理,选取排在前20%的匹配点对作为随机抽样的集合来求解变换模型,从而利用变换模型获得内点集合。
(5)求解两帧图像之间的运动信息;
根据第(4)步得到的匹配点对集合定义误差项,构建最小二乘函数,采用SVD方法求解出运动信息(R,t);
(6)利用粒子滤波进行最优估计;
由第(5)步得到的运动估计信息,通过计算Ck=Ck-1Tk来连接转换,得到运动系统的状态方程和观测方程,利用粒子滤波算法得到最优估计值。
参见图1,步骤2中,使用改进的FAST角点检测算法提取特征点,具体步骤如下:
S1、获取一张图片;
S2、在图片中任意选择一个像素点p,假设它的亮度是Ip
S3、设定一个阈值T;
S4、以像素点p为中心,分别选取半径为3和2的两个同心圆上的16和12个像素点;
S5、将选取的这些像素点的亮度分别于Ip+T或Ip-T相比较;
S6、如果在这两个同心圆上分别有M和N像素点的亮度大于Ip+T或小于Ip-T,则可以认为p是一个特征点;
S7、循环S2-S6,对每一个像素点进行上述操作;
S8、对选取的特征点进行非极大值抑制,并记录最终特征点的位置。
参见图2,步骤3中,根据得到的特征点的位置信息,利用SIFT算法计算特征点的主方向以及特征描述子,具体方法如下:
对于一个特征点,以它为中心,计算它邻域像素的梯度和方向,用直方图进行统计,得到特征点邻域像素的梯度分布,直方图中的峰值就是特征点的主方向;梯度和方向的计算公式如下:
Figure BDA0001994480500000061
θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))  (2)
以关键点为中心选取16×16的邻域窗口,关键点所在的行和列不取,计算邻域窗口内所有像素点的梯度模值和梯度方向,然后将每个窗口分成4×4的子区域,总共16个子区域,每个子区域包含8个方向上的信息,一共有128个方向信息,生成128维的SIFT特征向量,即128维的特征描述子。
步骤4中,根据生成的特征描述子进行特征匹配,具体方法如下:
对于t-1时刻这一帧图像上的特征点集{P}中的每一个特征点p,从t时刻这一帧图像上的特征点集{P′}中找到与特征点p的特征向量最近邻的特征点和次近邻的特征点,并记录它们之间的距离;
若最近邻特征点的距离与次近邻特征点的距离比小于等于设定的阈值T,则认为特征点p与最近邻的特征点p′是一对匹配点,记为(p,p′);
若最近邻特征点的距离与次近邻特征点的距离比大于设定的阈值T,则认为特征点p在特征点集{P′}中没有相匹配的特征点;
由以上可知,对每一个特征点都进行上述操作,并记录匹配上的特征点对,最后可以得到一个匹配点对的集合{(Pn,P′n)};
自适应RANSAC算法剔除误匹配点,具体方法如下:
S1、对于得到的粗匹配点对集合{(Pn,P′n)},计算集合中每对匹配点对之间的欧氏距离,并按从小到大的顺序进行排列;
S2、取排在前20%的匹配点对组成新的样本点对集合U;
S3、从U中随机选取6个匹配点对,利用其中4个计算变换模型Hi
S4、利用剩余的2个对Hi进行验证,如果通过验证,则进行下一步;否则,舍弃Hi,重新返回Step3;
S5、对匹配点对集合{(Pn,P′n)}根据变化模型Hi计算对称变换误差d,若d小于设定的值t,则认为是一个内点,并统计内点的数量M;
S6、重复Step3-Step5三步N次,若M大于设定的阈值S,则利用M重新估算变换模型H,即为最优的变换模型;
图3为自适应RANSAC算法剔除误匹配点后的结果。
步骤5中,根据匹配点集的误差构造目标函数,求解目标函数得到运动估计信息,具体方法如下:
根据步骤(4)可以得出一组匹配好的3D点:
Pm={p1,L,pm},P′m={p′1,L,p′m}  (3)
到一个欧式变换R和t,使得
Figure BDA0001994480500000071
这个问题可以用迭代最近点(ICP)来求解,这里采用的方式SVD为代表的方法进行求解,先定义第i对点的误差项:
ei=pi-(Rp′i+t)  (5)
然后构建最小二乘函数,求使误差平方和达到极小的R,t:
Figure BDA0001994480500000072
最后使用SVD方法求解出两帧图像之间的运动估计信息(R,t),即Tk
步骤6中,利用粒子滤波进行最优估计,减小误差,具体方法如下:
由步骤5得到的运动估计信息,通过计算Ck=Ck-1Tk来连接转换,得到运动系统的状态方程和观测方程如式(7),(8)所示:
xk=f(xk-1,uk,wk)  (7)
zk=h(xk,vk)  (8)
其中,xk为k时刻系统的状态变量,uk为系统的控制变量,zk为k时刻的观测变量,wk和vk分别为输入的白噪声和观测噪声。基于粒子滤波的视觉里程计算法是先利用k-1时刻的位置xk-1和系统噪声vk-1来预测k时刻的位置
Figure BDA0001994480500000081
然后在根据k时刻的观测值zk来更新k时刻的位xk置,就这样不停的循环迭代以得到车辆的最优位姿估计值。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。

Claims (4)

1.基于双目视觉的实时高精度车辆里程计算方法,其特征在于,该方法包括以下步骤:
步骤1、采用视觉传感器获取图像序列;
步骤2、对获取的前后帧立体图像利用改进FAST角点检测算法提取特征点;
步骤3、利用SIFT算法计算特征点的主方向并生成特征描述子;
步骤4、根据生成的特征描述子进行特征匹配,并采用自适应RANSAC算法剔除误匹配点;
步骤5、根据匹配点集误差构造目标函数,求解目标函数得到运动估计信息;
步骤6、利用粒子滤波进行最优估计,减小误差;
步骤2中,使用改进的FAST角点检测算法提取特征点,具体步骤如下:
S1、获取一张图片;
S2、在图片中任意选择一个像素点p,假设它的亮度是Ip
S3、设定一个阈值T;
S4、以像素点p为中心,分别选取半径为3和2的两个同心圆上的16和12个像素点;
S5、将选取的这些像素点的亮度分别与Ip+T或Ip-T相比较;
S6、如果在这两个同心圆上分别有M和N像素点的亮度大于Ip+T或小于Ip-T,则可以认为p是一个特征点;
S7、循环S2-S6,对每一个像素点进行上述操作;
S8、对选取的特征点进行非极大值抑制,并记录最终特征点的位置;
步骤4中,根据生成的特征描述子进行特征匹配,具体方法如下:
对于t-1时刻这一帧图像上的特征点集{P}中的每一个特征点p,从t时刻这一帧图像上的特征点集{P′}中找到与特征点p的特征向量最近邻的特征点和次近邻的特征点,并记录它们之间的距离;
若最近邻特征点的距离与次近邻特征点的距离比小于等于设定的阈值T,则认为特征点p与最近邻的特征点p′是一对匹配点,记为(p,p′);
若最近邻特征点的距离与次近邻特征点的距离比大于设定的阈值T,则认为特征点p在特征点集{P′}中没有相匹配的特征点;
由以上可知,对每一个特征点都进行上述操作,并记录匹配上的特征点对,最后可以得到一个匹配点对的集合{(Pn,P′n)};
自适应RANSAC算法剔除误匹配点,具体方法如下:
S1、对于得到的粗匹配点对集合{(Pn,P′n)},计算集合中每对匹配点对之间的欧氏距离,并按从小到大的顺序进行排列;
S2、取排在前20%的匹配点对组成新的样本点对集合U;
S3、从U中随机选取6个匹配点对,利用其中4个计算变换模型Hi
S4、利用剩余的2个对Hi进行验证,如果通过验证,则进行下一步;否则,舍弃Hi,重新返回S3;
S5、对匹配点对集合{(Pn,P′n)}根据变换模型Hi计算对称变换误差d,若d小于设定的值t,则认为是一个内点,并统计内点的数量M;
S6、重复S3-S5三步N次,若M大于设定的阈值S,则利用M重新估算变换模型H,即为最优的变换模型。
2.根据权利要求1所述基于双目视觉的实时高精度车辆里程计算方法,其特征在于,步骤3中,根据得到的特征点的位置信息,利用SIFT算法计算特征点的主方向以及特征描述子,具体方法如下:
对于一个特征点,以它为中心,计算它邻域像素的梯度和方向,用直方图进行统计,得到特征点邻域像素的梯度分布,直方图中的峰值就是特征点的主方向;梯度和方向的计算公式如下:
θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))  (2)
以关键点为中心选取16×16的邻域窗口,关键点所在的行和列不取,计算邻域窗口内所有像素点的梯度模值和梯度方向,然后将每个窗口分成4×4的子区域,总共16个子区域,每个子区域包含8个方向上的信息,一共有128个方向信息,生成128维的SIFT特征向量,即128维的特征描述子。
3.根据权利要求2所述基于双目视觉的实时高精度车辆里程计算方法,其特征在于,步骤5中,根据匹配点集的误差构造目标函数,求解目标函数得到运动估计信息,具体方法如下:
根据步骤4可以得出一组匹配好的3D点:
Pm={p1,L,pm},P′m={p′1,L,p′m}  (3)
得到一个欧式变换R和t,使得
这个问题可以用迭代最近点(ICP)来求解,这里采用的方式SVD为代表的方法进行求解,先定义第i对点的误差项:
ei=pi-(Rp′i+t)  (5)
然后构建最小二乘函数,求使误差平方和达到极小的R,t:
最后使用SVD方法求解出两帧图像之间的运动估计信息(R,t),即Tk
4.根据权利要求3所述基于双目视觉的实时高精度车辆里程计算方法,其特征在于,步骤6中,利用粒子滤波进行最优估计,减小误差,具体方法如下:
由步骤5得到的运动估计信息,通过计算Ck=Ck-1Tk来连接转换,得到运动系统的状态方程和观测方程如式(7),(8)所示:
xk=f(xk-1,uk,wk)  (7)
zk=h(xk,vk)  (8)
其中,xk为k时刻系统的状态变量,uk为系统的控制变量,zk为k时刻的观测变量,wk和vk分别为输入的白噪声和观测噪声;基于粒子滤波的视觉里程计算法是先利用k-1时刻的位置xk-1和系统噪声vk-1来预测k时刻的位置然后在根据k时刻的观测值zk来更新k时刻的位置xk,就这样不停的循环迭代以得到车辆的最优位姿估计值。
CN201910191645.0A 2019-03-14 2019-03-14 基于双目视觉的实时高精度车辆里程计算方法 Active CN109813334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910191645.0A CN109813334B (zh) 2019-03-14 2019-03-14 基于双目视觉的实时高精度车辆里程计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910191645.0A CN109813334B (zh) 2019-03-14 2019-03-14 基于双目视觉的实时高精度车辆里程计算方法

Publications (2)

Publication Number Publication Date
CN109813334A CN109813334A (zh) 2019-05-28
CN109813334B true CN109813334B (zh) 2023-04-07

Family

ID=66608982

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910191645.0A Active CN109813334B (zh) 2019-03-14 2019-03-14 基于双目视觉的实时高精度车辆里程计算方法

Country Status (1)

Country Link
CN (1) CN109813334B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287974A (zh) * 2019-06-24 2019-09-27 中国矿业大学 一种综采工作面激光扫描三维模型与gis模型快速匹配方法
CN110766024B (zh) * 2019-10-08 2023-05-23 湖北工业大学 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN111461998A (zh) * 2020-03-11 2020-07-28 中国科学院深圳先进技术研究院 一种环境重建方法及装置
CN111667506B (zh) * 2020-05-14 2023-03-24 电子科技大学 一种基于orb特征点的运动估计方法
CN114119522A (zh) * 2021-11-17 2022-03-01 北京华能新锐控制技术有限公司 输煤皮带堵煤视觉检测方法
CN114322943B (zh) * 2021-12-15 2023-03-28 南京航空航天大学 一种基于无人机前视图像的目标距离测量方法及装置
CN116403380A (zh) * 2023-06-08 2023-07-07 北京中科慧眼科技有限公司 基于路侧双目相机的超限监控方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN108168539A (zh) * 2017-12-21 2018-06-15 儒安科技有限公司 一种基于计算机视觉的盲人导航方法、装置及系统
CN108534797A (zh) * 2018-04-13 2018-09-14 北京航空航天大学 一种实时高精度视觉里程计方法
WO2018209969A1 (zh) * 2017-05-19 2018-11-22 成都通甲优博科技有限责任公司 深度图创建方法与系统及图像虚化方法与系统
CN109146920A (zh) * 2018-06-29 2019-01-04 西北工业大学 一种可嵌入式实现的目标跟踪方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5500400B1 (ja) * 2012-12-14 2014-05-21 株式会社コンセプト 画像処理装置、画像処理方法及び画像処理プログラム
CN103236064B (zh) * 2013-05-06 2016-01-13 东南大学 一种基于法向量的点云自动配准方法
CN103926927A (zh) * 2014-05-05 2014-07-16 重庆大学 一种室内移动机器人双目视觉定位与三维建图方法
CN104881029B (zh) * 2015-05-15 2018-01-30 重庆邮电大学 基于一点ransac和fast算法的移动机器人导航方法
CN105300403B (zh) * 2015-09-22 2017-12-29 清华大学 一种基于双目视觉的车辆里程计算法
CN107356252B (zh) * 2017-06-02 2020-06-16 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
WO2018209969A1 (zh) * 2017-05-19 2018-11-22 成都通甲优博科技有限责任公司 深度图创建方法与系统及图像虚化方法与系统
CN108168539A (zh) * 2017-12-21 2018-06-15 儒安科技有限公司 一种基于计算机视觉的盲人导航方法、装置及系统
CN108534797A (zh) * 2018-04-13 2018-09-14 北京航空航天大学 一种实时高精度视觉里程计方法
CN109146920A (zh) * 2018-06-29 2019-01-04 西北工业大学 一种可嵌入式实现的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Wei Hong等.Natural landmarks based localization algorithm for indoor robot with binocular vision.《2017 29th Chinese Control And Decision Conference (CCDC)》.2017,3313-3318. *
安如等.基于FAST改进的快速角点探测算法.红外与激光工程.2009,(第06期),1104-1115. *

Also Published As

Publication number Publication date
CN109813334A (zh) 2019-05-28

Similar Documents

Publication Publication Date Title
CN109813334B (zh) 基于双目视觉的实时高精度车辆里程计算方法
CN102999918B (zh) 全景视频序列图像的多目标对象跟踪系统
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
Seok et al. Rovo: Robust omnidirectional visual odometry for wide-baseline wide-fov camera systems
CN108481327B (zh) 一种增强视觉的定位装置、定位方法及机器人
Li et al. Multiple object tracking with motion and appearance cues
CN104200495A (zh) 一种视频监控中的多目标跟踪方法
CN102176243A (zh) 一种基于可见光和红外摄像机的目标测距方法
Cao et al. Robust place recognition and loop closing in laser-based SLAM for UGVs in urban environments
CN104966063A (zh) 基于gpu与cpu协同计算的矿井多摄像机视频融合方法
CN113658337B (zh) 一种基于车辙线的多模态里程计方法
CN111681283B (zh) 一种基于单目立体视觉的应用于无线充电对位的相对位姿解算方法
CN111862673A (zh) 基于顶视图的停车场车辆自定位及地图构建方法
Chen et al. Pole-curb fusion based robust and efficient autonomous vehicle localization system with branch-and-bound global optimization and local grid map method
Guo et al. Coarse-to-fine semantic localization with HD map for autonomous driving in structural scenes
Garg et al. Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation
CN109344712B (zh) 一种道路车辆跟踪方法
Xiang et al. Hybrid bird’s-eye edge based semantic visual SLAM for automated valet parking
KR101456172B1 (ko) 이동로봇의 위치인식 장치, 방법 및 이동로봇
Liu et al. Moving camera-based object tracking using adaptive ground plane estimation and constrained multiple kernels
Chun-Zhao et al. Drivable road boundary detection for intelligent vehicles based on stereovision with plane-induced homography
Svedman et al. Structure from stereo vision using unsynchronized cameras for simultaneous localization and mapping
CN116188545A (zh) 基于imu和里程计的红外与可见光传感器在线配准方法
Yu et al. An improved phase correlation method for stop detection of autonomous driving
Wu et al. Visual Odometry With Point and Line Features Based on Underground Tunnel Environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant