CN103411621A - 一种面向室内移动机器人的光流场视觉/ins组合导航方法 - Google Patents

一种面向室内移动机器人的光流场视觉/ins组合导航方法 Download PDF

Info

Publication number
CN103411621A
CN103411621A CN2013103693549A CN201310369354A CN103411621A CN 103411621 A CN103411621 A CN 103411621A CN 2013103693549 A CN2013103693549 A CN 2013103693549A CN 201310369354 A CN201310369354 A CN 201310369354A CN 103411621 A CN103411621 A CN 103411621A
Authority
CN
China
Prior art keywords
ins
speed
navigation
point
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103693549A
Other languages
English (en)
Other versions
CN103411621B (zh
Inventor
李庆华
陈熙源
高金鹏
徐元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201310369354.9A priority Critical patent/CN103411621B/zh
Publication of CN103411621A publication Critical patent/CN103411621A/zh
Application granted granted Critical
Publication of CN103411621B publication Critical patent/CN103411621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种面向室内移动机器人的光流场视觉导航/INS组合导航方法,其采用基于光流场的视觉导航和INS两种导航方式,移动机器人通过车载摄像头采集车辆的动态视频,在视频中获取视频光流特征,根据特征计算移动机器人在载体坐标系下的横向速度(Vx)、纵向速度(Vy),并与INS测量得到的航向角计算机器人的东向速度(VE)和北向速度(VN)。将计算得到的VE、VN和INS测量得到的航向角变化量ωZ共同输入到扩展卡尔曼滤波器中进行数据融合,得到比基于光流场导航和INS两种导航方式精度更高的移动机器人的东向和北向的速度和加速度的最优预估。通过本发明的方法可为移动机器人提供更加精确的导航信息,扩大了室内机器人定位的范围。

Description

一种面向室内移动机器人的光流场视觉/INS组合导航方法
技术领域
一种面向室内移动机器人的光流场视觉/INS组合导航方法,属于复杂环境下组合定位技术领域。
背景技术
近年来,随着计算机技术、信息技术、通讯技术、微电子技术和机器人技术的飞速发展,移动机器人技术的研究与应用取得了长足的进步。室内机器人或运动目标的导航与定位作为实现生产过程智能化和完全自主化的关键技术,逐渐成为目前该领域的研究热点。然而,在外界无线电信号微弱、电磁干扰强烈等一系列复杂室内环境中,对移动目标导航信息获取的准确性、实时性及鲁棒性有很大的影响。如何将室内环境下获取的有限信息进行有效的融合以满足智能移动机器人或运动目标高导航精度的要求,消除外界环境的影响,具有重要的科学理论意义和实际应用价值。
目前移动机器人导航的方式按照传感器的类别大致可分为两大类:基于计算机视觉的导航技术和基于非视觉传感器(如超声波、激光等)的导航技术。非视觉传感器具有感知测量直接,对传感器数据处理能力要求低等特点;但不幸的是,这类传感器的使用将会对环境产生“污染”,特别是在有多个传感器共同工作的情况下,相互之间将会产生严重的干扰。但视觉传感器,它们的采样过程不会对环境产生污染,多个传感器之间也不会产生相互干扰。这种传感器采集的数据往往需要大量的运算,早期很难做到实时。近几年来由于图像处理技术和计算机运算能力的大大增强以及大量数字图像处理设备性价比的提高,加之视觉系统具有信号探测范围宽、目标信息完整等优势,基于视觉传感器的机器人导航己引起人们的极大关注。但是视觉导航系统易受敏感器作用距离和光照条件的限制且导航数据更新频率低。
惯性导航系统以牛顿力学定律为基础,通过测量载体内部载体运动的加速度,经积分运算得到载体的速度和位置等导航信息,实现导航。惯性导航的优点是不需要外部参数作为参考,自身可以提供完全的自主性的和完备的导航信息(机器人的位置、速度及姿态等),缺点是随时间的增长,移动机器人运动路程逐渐增加,定位的准确度会逐渐的下降。所以惯性传感器适用于短时间的移动机器人精确导航定位。
发明内容
为了解决上述问题,本发明提出了一种面向室内移动机器人的光流场视觉/惯性导航系统(INS)组合导航方法,属于复杂环境下组合定位技术领域。该方法采用基于光流场的视觉导航和INS两种导航方式,移动机器人通过车载摄像头采集车辆的动态视频,在视频中的相邻图片帧之间获取视频光流特征,根据光流特征计算移动机器人在载体坐标系下的横向速度Vx、纵向速度Vy,并与INS测量得到的航向角计算机器人的东向速度VE和北向速度VN。将计算得到的VE、VN和INS测量得到的航向角变化量ωZ共同输入到扩展卡尔曼滤波器中进行数据融合,得到比基于光流场视觉导航和INS两种导航方式精度更高的移动机器人的东向和北向的速度和加速度的最优预估。上述方法的提出,为移动机器人提供更加精确的导航信息,扩大了室内机器人定位的范围。
本发明为解决其技术问题,提出如下技术方案:
(1)车载摄像头垂直向下放置,从车载摄像头拍摄的图像帧中选取一个矩形区域作为感兴趣区域ROI(Region of interest,感兴趣区域),后续的处理均在ROI中进行。
(2)在上述ROI中根据Shi-Tomasi角点检测方法提取N个角点(图像中的梯度值和梯度方向变化速率都很高的点),记录角点在图像坐标系下的坐标;
(3)采用图像金字塔Lucas-Kanade光流法对选取的步骤(2)中选取的角点进行跟踪,获取所有角点在下一帧中的图像坐标系中的坐标;
(4)采用随机抽样一致性算法(RANSAC)剔除跟踪异常的角点比如说在一帧图像中检测出20个角点,通过光流法跟踪得到角点在下一帧位置,如果有19个角点纵向位移在10±5个像素点之间,另外一个远大于这个范围,那么这个点就认为跟踪异常),只对跟踪正常的角点进行数据处理;
(5)根据所有跟踪正常的角点在相邻两帧图像中对应的坐标,计算所有正常角点在横向和纵向的位置变化(△x,△y);
(6)假设车载摄像头的投影中心距离地面的垂直距离为ZR,焦距为f1,f2,主光轴点坐标(c1,c2),车载摄像头在水平面上的速度分量分别为Vx,Vy,镜头畸变系数为[k1,k2,k3,k4,k5],其包括径向畸变系数和切向畸变系数,所述车载摄像头模型的归一化映射关系如下:
x n y n = X R Z R Y R Z R - - - ( 1 )
其中(XR,YR,ZR)为与图像坐标系上跟踪正常的角点相对应的地面上的真实点在相机坐标系中的坐标,考虑镜头畸变系数,则相应的图像坐标系上的点可以表示为:
x d y d = ( 1 + k 1 r 2 + k 2 r 4 + k 5 r 6 ) x n y n t d - - - ( 2 )
其中 r = x n 2 + y n 2 , 切向畸变向量 t d = 2 k 3 x n y n + k 4 ( r 2 + 2 x n 2 ) k 3 ( r 2 + 2 y n 2 ) + 2 k 4 x n y n , 点(c1,c2)为车载摄像头光轴与图像平面的交点,则像素点的最终坐标为:
x c y c = f 1 0 0 f 2 x d y d + c 1 c 2 - - - ( 3 )
假设镜头的畸变系数[k1,k2,k3,k4,k5]可忽略,均为零,则
x c y c = f 1 X R Z R f 2 Y R Z R + c 1 c 2 - - - ( 4 )
(4)式对时间微分得:
V x V y = Z R v x f 1 + X R V z Z R Z R v y f 2 + Y R V z Z R - - - ( 5 )
考虑地面水平则ZR为常值,对时间导数为0则有:
V x V y = Z R v x f 1 Z R v y f 2 - - - ( 6 )
由(4)式带入得:
V x V y = Z R v x f 1 + 1 f 1 ( x c - c 1 ) V z Z R v y f 2 + 1 f 2 ( y c - c 2 ) V z - - - ( 7 )
考虑地面水平则ZR为常值,对时间导数为0则有:
V x V y = Z R v x f 1 Z R v y f 2 - - - ( 8 )
(7)与惯性导航系统(INS)测量得到的航向角
Figure BDA0000364313840000049
,计算机器人的东向速度VE和北向速度VN,计算公式如下:
Figure BDA0000364313840000054
Figure BDA0000364313840000055
(8)将计算得到的VE、VN和INS测量得到的航向角变化量ωZ共同输入到卡尔曼滤波器中进行数据融合;
(9)扩展卡尔曼滤波器的系统方程以每一时刻视觉测量得到VE和VN以及INS每一时刻东向和北向的加速度作为状态变量,以每一时刻视觉测量得到的VE、VN和INS测量得到的航向角变化量ωZ作为观测量,滤波器的系统方程如式(11)所示:
其中
Figure BDA0000364313840000056
为系统噪声,观测方程如式(12)所示:
Figure BDA0000364313840000052
其中υ3×1为观测方程噪声,VE,k,VN,k,AccE,k,AccN,k分别代表k时刻的东向速度、北向速度、东向加速度和北向加速度;VE,k+1,VN,k+1AccE,k+1,AccN,k+1分别代表k+1时刻的东向速度、北向速度、东向加速度和北向加速度;
Figure BDA0000364313840000053
分别为所观测到的东向速度、北向速度和航向角变化量;T为相邻时刻间隔周期。
本发明的有益效果如下:
1、通过光流场视觉获取室内移动机器人的东向和北向速度,仅需要车载摄像头,不需要借助其他外部设备,具有较好的独立性。与传统的通过码盘获取移动机器人速度的方法相比,克服了机器人在车轮打滑时车速测量不准确的缺点,具有较高的精度。
2、将计算得到的VE、VN和INS测量得到的航向角变化量ωZ共同输入到扩展卡尔曼滤波器中进行数据融合,得到的导航信息,比上述任何单一导航方法得到的信息精度更高。
3、可用于室内,地下矿井等密闭复杂环境下的长距离高精度目标定位跟踪。
附图说明
图1为用于一种面向室内移动机器人的光流场视觉/INS组合导航方法的系统示意图。
图2为用于一种面向室内移动机器人的光流场视觉/INS组合导航方法的控制方法示意图。
图3为本发明的方法流程图。
具体实施方式
下面结合附图对本发明创造做进一步详细说明。
如图1所示,一种面向室内移动机器人的光流场视觉/INS的组合导航方法的系统,包括视觉摄像头、惯性测量单元(IMU)导航模块和数据处理计算机。
扩展卡尔曼滤波器的系统方程以INS每一时刻东向和北向的速度和加速度作为状态变量,以每一时刻视觉测量得到的VE、VN和INS测量得到的航向角变化量ωZ作为观测量。滤波器的系统方程如式(13)所示:
Figure BDA0000364313840000071
其中为系统噪声,观测方程如式(14)所示:
Figure BDA0000364313840000072
其中υ3×1为观测方程噪声,VE,k,VN,k,AccE,k,AccN,k分别代表k时刻的东向速度、北向速度、东向加速度和北向加速度;VE,k+1,VN,k+1AccE,k+1,AccN,k+1分别代表k+1时刻的东向速度、北向速度、东向加速度和北向加速度;
Figure BDA0000364313840000073
分别为所观测到的东向速度、北向速度和航向角变化量;T为相邻时刻间隔周期。
通过扩展卡尔曼滤波器中的数据融合,得到比基于光流场导航和INS两种导航方式精度更高的移动机器人的东向和北向的速度和加速度的最优预估。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (2)

1.一种面向室内移动机器人的光流场视觉/INS组合导航方法,其包括下列步骤:
(1)车载摄像头垂直向下放置,从车载摄像头拍摄的图像帧中选取一个矩形区域作为感兴趣区域ROI,后续的处理均在ROI中进行;
(2)在上述ROI中根据Shi-Tomasi角点检测方法提取N个角点,记录所有角点在图像坐标系下的坐标;
(3)采用图像金字塔Lucas-Kanade光流法对选取的步骤(2)中选取的角点进行跟踪,获取所有角点在下一帧中的图像坐标系中的坐标;
(4)采用随机抽样一致性算法RANSAC剔除跟踪异常的角点,只对跟踪正常的角点进行数据处理;
(5)根据所有跟踪正常的角点在相邻两帧图像中对应的坐标,计算所有正常角点在横向和纵向的位置变化(△x,△y);
(6)假设车载摄像头的投影中心距离地面的垂直距离为ZR,焦距为f1,f2,主光轴点坐标(c1,c2),车载摄像头在水平面上的速度分量分别为Vx,Vy,镜头畸变系数为[k1,k2,k3,k4,k5],其包括径向畸变系数和切向畸变系数,所述车载摄像头模型的归一化映射关系如下:
x n y n = X R Z R Y R Z R - - - ( 1 )
其中(XR,YR,ZR)为与图像坐标系上跟踪正常的角点相对应的地面上的真实点在相机坐标系中的坐标,考虑镜头畸变系数,则相应的图像坐标系上的点可以表示为:
x d y d = ( 1 + k 1 r 2 + k 2 r 4 + k 5 r 6 ) x n y n t d - - - ( 2 )
其中 r = x n 2 + y n 2 , 切向畸变向量 t d = 2 k 3 x n y n + k 4 ( r 2 + 2 x n 2 ) k 3 ( r 2 + 2 y n 2 ) + 2 k 4 x n y n , 点(c1,c2)为车载摄像头光轴与图像平面的交点,则像素点的最终坐标为:
x c y c = f 1 0 0 f 2 x d y d + c 1 c 2 - - - ( 3 )
假设镜头的畸变系数[k1,k2,k3,k4,k5]可忽略,均为零,则
x c y c = f 1 X R Z R f 2 Y R Z R + c 1 c 2 - - - ( 4 )
(4)式对时间微分得:
V x V y = Z R v x f 1 + X R V z Z R Z R v y f 2 + Y R V z Z R - - - ( 5 )
考虑地面水平则ZR为常值,对时间导数为0则有:
V x V y = Z R v x f 1 Z R v y f 2 - - - ( 6 )
由(4)式带入得:
V x V y = Z R v x f 1 + 1 f 1 ( x c - c 1 ) V z Z R v y f 2 + 1 f 2 ( y c - c 2 ) V z - - - ( 7 )
考虑地面水平则ZR为常值,对时间导数为0则有:
V x V y = Z R v x f 1 Z R v y f 2 - - - ( 8 )
(7)与惯性导航系统(INS)测量得到的航向角
Figure FDA0000364313830000033
,计算机器人的东向速度VE和北向速度VN,计算公式如下:
Figure FDA0000364313830000034
Figure FDA0000364313830000035
(8)将计算得到的VE、VN和INS测量得到的航向角变化量ωZ共同输入到卡尔曼滤波器中进行数据融合;
(9)扩展卡尔曼滤波器的系统方程以每一时刻视觉测量得到VE和VN以及INS每一时刻东向和北向的加速度作为状态变量,以每一时刻视觉测量得到的VE、VN和INS测量得到的航向角变化量ωZ作为观测量,滤波器的系统方程如式(11)所示:
Figure FDA0000364313830000031
其中
Figure FDA0000364313830000036
为系统噪声,观测方程如式(12)所示:
其中υ3×1为观测方程噪声,VE,k,VN,k,AccE,k,AccN,k分别代表k时刻的东向速度、北向速度、东向加速度和北向加速度;VE,k+1,VN,k+1AccE,k+1,AccN,k+1分别代表k+1时刻的东向速度、北向速度、东向加速度和北向加速度;分别为所观测到的东向速度、北向速度和航向角变化量;T为相邻时刻间隔周期。
2.如权利要求1所述一种面向室内移动机器人的光流场视觉/INS组合导航方法,其中所述异常角点为角点纵向位移超过预定阈值的角点。
CN201310369354.9A 2013-08-09 2013-08-09 一种面向室内移动机器人的光流场视觉/ins组合导航方法 Active CN103411621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310369354.9A CN103411621B (zh) 2013-08-09 2013-08-09 一种面向室内移动机器人的光流场视觉/ins组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310369354.9A CN103411621B (zh) 2013-08-09 2013-08-09 一种面向室内移动机器人的光流场视觉/ins组合导航方法

Publications (2)

Publication Number Publication Date
CN103411621A true CN103411621A (zh) 2013-11-27
CN103411621B CN103411621B (zh) 2016-02-10

Family

ID=49604649

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310369354.9A Active CN103411621B (zh) 2013-08-09 2013-08-09 一种面向室内移动机器人的光流场视觉/ins组合导航方法

Country Status (1)

Country Link
CN (1) CN103411621B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN105137468A (zh) * 2015-09-24 2015-12-09 北京理工大学 光电式gps盲区环境下车辆可持续导航数据采集装置及方法
CN105374049A (zh) * 2014-09-01 2016-03-02 浙江宇视科技有限公司 一种基于稀疏光流法的多角点跟踪方法及装置
CN105698784A (zh) * 2016-03-22 2016-06-22 成都电科创品机器人科技有限公司 一种室内机器人定位系统及方法
CN106683121A (zh) * 2016-11-29 2017-05-17 广东工业大学 一种融合检测过程的鲁棒目标追踪方法
CN106767791A (zh) * 2017-01-13 2017-05-31 东南大学 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法
CN106813662A (zh) * 2016-06-08 2017-06-09 极翼机器人(上海)有限公司 一种基于光流的导航方法
CN107390704A (zh) * 2017-07-28 2017-11-24 西安因诺航空科技有限公司 一种基于imu姿态补偿的多旋翼无人机光流悬停方法
WO2018068771A1 (zh) * 2016-10-12 2018-04-19 纳恩博(北京)科技有限公司 目标跟踪方法、系统、电子设备和计算机存储介质
CN108007474A (zh) * 2017-08-31 2018-05-08 哈尔滨工业大学 一种基于地面标识的无人飞行器自主定位及位姿校正技术
CN108020855A (zh) * 2017-11-29 2018-05-11 安徽省通信息科技有限公司 一种滑移转向机器人的位姿和转动瞬心联合估计方法
CN108052103A (zh) * 2017-12-13 2018-05-18 中国矿业大学 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法
CN108106614A (zh) * 2017-12-22 2018-06-01 北京轻威科技有限责任公司 一种惯性传感器与视觉传感器数据融算法
CN108981687A (zh) * 2018-05-07 2018-12-11 清华大学 一种视觉与惯性融合的室内定位方法
CN109506652A (zh) * 2018-10-23 2019-03-22 珠海市微半导体有限公司 一种基于地毯偏移的光流数据融合方法及清洁机器人
CN110402368A (zh) * 2017-03-14 2019-11-01 天宝公司 用在交通工具导航中的集成式的基于视觉的惯性传感器系统
CN110595466A (zh) * 2019-09-18 2019-12-20 电子科技大学 轻量级的基于深度学习的惯性辅助视觉里程计实现方法
CN115962783A (zh) * 2023-03-16 2023-04-14 太原理工大学 掘进机截割头的定位方法及掘进机
CN117301078A (zh) * 2023-11-24 2023-12-29 浙江洛伦驰智能技术有限公司 一种机器手视觉校准方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101598556A (zh) * 2009-07-15 2009-12-09 北京航空航天大学 一种未知环境下无人机视觉/惯性组合导航方法
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN102435172A (zh) * 2011-09-02 2012-05-02 北京邮电大学 一种球形机器人视觉定位系统及视觉定位方法
CN102829779A (zh) * 2012-09-14 2012-12-19 北京航空航天大学 一种飞行器多个光流传感器与惯导组合导航方法
CN103148855A (zh) * 2013-02-27 2013-06-12 东南大学 一种ins辅助的室内移动机器人无线定位方法
CN103162682A (zh) * 2011-12-08 2013-06-19 中国科学院合肥物质科学研究院 基于混合现实的室内路径导航方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101598556A (zh) * 2009-07-15 2009-12-09 北京航空航天大学 一种未知环境下无人机视觉/惯性组合导航方法
CN102435172A (zh) * 2011-09-02 2012-05-02 北京邮电大学 一种球形机器人视觉定位系统及视觉定位方法
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN103162682A (zh) * 2011-12-08 2013-06-19 中国科学院合肥物质科学研究院 基于混合现实的室内路径导航方法
CN102829779A (zh) * 2012-09-14 2012-12-19 北京航空航天大学 一种飞行器多个光流传感器与惯导组合导航方法
CN103148855A (zh) * 2013-02-27 2013-06-12 东南大学 一种ins辅助的室内移动机器人无线定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
祝雪芬等: "卡尔曼/粒子滤波器在船用组合导航中的应用", 《舰船电子工程》, no. 4, 30 April 2009 (2009-04-30), pages 59 - 63 *
陈林: "基于动态视觉定位的惯性导航地标修正方法研究", 《中国优秀硕士学位论文全文数据库》, no. 07, 15 July 2009 (2009-07-15), pages 28 - 50 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103983263A (zh) * 2014-05-30 2014-08-13 东南大学 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN105374049A (zh) * 2014-09-01 2016-03-02 浙江宇视科技有限公司 一种基于稀疏光流法的多角点跟踪方法及装置
CN105374049B (zh) * 2014-09-01 2020-01-14 浙江宇视科技有限公司 一种基于稀疏光流法的多角点跟踪方法及装置
CN105137468A (zh) * 2015-09-24 2015-12-09 北京理工大学 光电式gps盲区环境下车辆可持续导航数据采集装置及方法
CN105698784A (zh) * 2016-03-22 2016-06-22 成都电科创品机器人科技有限公司 一种室内机器人定位系统及方法
CN106813662A (zh) * 2016-06-08 2017-06-09 极翼机器人(上海)有限公司 一种基于光流的导航方法
WO2018068771A1 (zh) * 2016-10-12 2018-04-19 纳恩博(北京)科技有限公司 目标跟踪方法、系统、电子设备和计算机存储介质
CN106683121A (zh) * 2016-11-29 2017-05-17 广东工业大学 一种融合检测过程的鲁棒目标追踪方法
CN106767791A (zh) * 2017-01-13 2017-05-31 东南大学 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法
CN110402368A (zh) * 2017-03-14 2019-11-01 天宝公司 用在交通工具导航中的集成式的基于视觉的惯性传感器系统
CN110402368B (zh) * 2017-03-14 2023-08-29 天宝公司 用在交通工具导航中的集成式的基于视觉的惯性传感器系统
CN107390704A (zh) * 2017-07-28 2017-11-24 西安因诺航空科技有限公司 一种基于imu姿态补偿的多旋翼无人机光流悬停方法
CN108007474A (zh) * 2017-08-31 2018-05-08 哈尔滨工业大学 一种基于地面标识的无人飞行器自主定位及位姿校正技术
CN108020855A (zh) * 2017-11-29 2018-05-11 安徽省通信息科技有限公司 一种滑移转向机器人的位姿和转动瞬心联合估计方法
CN108020855B (zh) * 2017-11-29 2020-01-31 安徽省一一通信息科技有限公司 一种滑移转向机器人的位姿和转动瞬心联合估计方法
CN108052103A (zh) * 2017-12-13 2018-05-18 中国矿业大学 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法
CN108106614B (zh) * 2017-12-22 2019-02-19 北京轻威科技有限责任公司 一种惯性传感器与视觉传感器数据融算法
CN108106614A (zh) * 2017-12-22 2018-06-01 北京轻威科技有限责任公司 一种惯性传感器与视觉传感器数据融算法
CN108981687A (zh) * 2018-05-07 2018-12-11 清华大学 一种视觉与惯性融合的室内定位方法
CN108981687B (zh) * 2018-05-07 2021-01-15 清华大学 一种视觉与惯性融合的室内定位方法
CN109506652A (zh) * 2018-10-23 2019-03-22 珠海市微半导体有限公司 一种基于地毯偏移的光流数据融合方法及清洁机器人
CN110595466A (zh) * 2019-09-18 2019-12-20 电子科技大学 轻量级的基于深度学习的惯性辅助视觉里程计实现方法
CN110595466B (zh) * 2019-09-18 2020-11-03 电子科技大学 轻量级的基于深度学习的惯性辅助视觉里程计实现方法
CN115962783A (zh) * 2023-03-16 2023-04-14 太原理工大学 掘进机截割头的定位方法及掘进机
CN115962783B (zh) * 2023-03-16 2023-06-02 太原理工大学 掘进机截割头的定位方法及掘进机
CN117301078A (zh) * 2023-11-24 2023-12-29 浙江洛伦驰智能技术有限公司 一种机器手视觉校准方法及系统
CN117301078B (zh) * 2023-11-24 2024-03-12 浙江洛伦驰智能技术有限公司 一种机器手视觉校准方法及系统

Also Published As

Publication number Publication date
CN103411621B (zh) 2016-02-10

Similar Documents

Publication Publication Date Title
CN103411621B (zh) 一种面向室内移动机器人的光流场视觉/ins组合导航方法
CN104183127B (zh) 交通监控视频检测方法和装置
CN103983263A (zh) 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法
CN110031829B (zh) 一种基于单目视觉的目标精准测距方法
CN107229063A (zh) 一种基于gnss和视觉里程计融合的无人驾驶汽车导航定位精度矫正方法
CN104575003B (zh) 一种基于道路监控视频的车辆速度检测方法
CN102788572B (zh) 一种工程机械吊钩姿态的测量方法、装置及系统
CN107289910B (zh) 一种基于tof的光流定位系统
CN103605978A (zh) 基于三维实景数据的城市违章建筑识别系统及方法
CN104484868B (zh) 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法
US20200357141A1 (en) Systems and methods for calibrating an optical system of a movable object
CN105243664A (zh) 一种基于视觉的轮式移动机器人快速目标跟踪方法
CN104848861B (zh) 一种基于图像消失点识别技术的移动设备姿态测量方法
CN104794737A (zh) 一种深度信息辅助粒子滤波跟踪方法
CN108710127B (zh) 低空及海面环境下的目标检测识别方法及系统
CN108106613B (zh) 基于视觉辅助的定位方法与系统
CN107796373A (zh) 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
CN104898675A (zh) 一种机器人智能导航控制方法
CN115717867A (zh) 一种基于机载双相机和目标追踪的桥梁变形测量方法
CN112432653B (zh) 基于点线特征的单目视觉惯性里程计方法
Omrani et al. Dynamic and static object detection and tracking in an autonomous surface vehicle
CN105807083A (zh) 一种无人飞行器实时测速方法及系统
CN103744110B (zh) 超声与单目视觉传感器结合的障碍物识别装置
Jiang et al. Bridge Deformation Measurement Using Unmanned Aerial Dual Camera and Learning‐Based Tracking Method
CN116758311A (zh) 一种适合弱光环境的视觉slam构建方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant