CN104281148A - 基于双目立体视觉的移动机器人自主导航方法 - Google Patents
基于双目立体视觉的移动机器人自主导航方法 Download PDFInfo
- Publication number
- CN104281148A CN104281148A CN201310281695.0A CN201310281695A CN104281148A CN 104281148 A CN104281148 A CN 104281148A CN 201310281695 A CN201310281695 A CN 201310281695A CN 104281148 A CN104281148 A CN 104281148A
- Authority
- CN
- China
- Prior art keywords
- point
- motion
- robot
- estimation
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于双目立体视觉的移动机器人自主导航方法,该方法包括图像处理和运动估计两个过程:图像处理环节中设计了特征提取、立体匹配、特征跟踪等具体处理算法,分析了图像处理过程中的误差;运动估计环节通过鲁棒运动估计方法和非线性运动估计两步估计算法,具有针对性地消除了图像处理中的误匹配及噪声等误差影响,估计了机器人移动过程中的运动状态,提高了机器人在复杂环境下进行自主导航的性能。
Description
技术领域
本发明涉及图像处理、计算机视觉和自主导航技术领域,尤其是一种应用于表面复杂环境的自主导航技术实现方法。
背景技术
定位是机器人自主移动过程中的关键技术,其任务就是要确定机器人在地表参考坐标系中的姿态和位置信息,随着计算机图像处理技术的高速发展,利用视觉系统进行运动估计逐步成为了机器人进行导航的首选,机器人自运动估计就是通过分析环境图像信息的变化来估计其自身的运动参数,从某些意义上来说,基于视觉序列图像的自运动估计也可称之为视觉里程计运动估计技术,基于立体视觉的导航定位技术可靠性较高,逐步成为了机器人导航定位发展的趋势,根据机器人对于环境的了解情况,当机器人在视野范围内进行巡游探测时,用车上安装的立体视觉相机对其所处的周围环境进行成像,根据图像中的视觉特征,来实时对机器人的位置进行估计。
发明内容
本发明公开了一种基于双目立体视觉的机器人自主导航方法,该方法包括图像处理和运动估计两个过程:图像处理环节中设计了特征提取、立体匹配、特征跟踪等具体处理算法,分析了图像处理过程中的误差;运动估计分为鲁棒运动估计和非线性运动估计两个过程。
本发明的基本原理如下:
机器人立体视觉自运动估计是一套自主定位方案,整个部分分为两大部分,第一部分主要是相机标定、图像采集与预处理过程,需要首先对原始图像进行噪声过滤、灰度校正等图像预处理,最后输出立体图像对;第二部分主要由视觉图像处理和运动估计两个模块组成,由运动估计模块处理图像中特征点位置变化,来估计机器人自身的导航参数,具体如下:
1. 图像处理与分析过程:
1)图像噪声处理:本专利利用一种该进的中值滤波算法,像素灰度计算如下:
其中:分别为像素的邻域上、左、下、右上的像素,为像素的邻域对角方向上的像素,为取中值运算符.
2)特征点提取,本发明采用Harris算子模型中表示像元灰度值,并分别用表示像元在X和Y方向的梯度,Harris算子将角点响应函数表示为该像元的协方差矩阵行列式与方阵的迹:
(1)
3)立体匹配,本发明采用相关匹配的方法进行匹配,该方法是根据两幅图像中特征点的相关程度来确定其匹配关系,相关值定义为:
(2)
其中,为灰度均值,且有
(3)
为图像k以特征点为中心领域图像的标准偏差,可由以下公式计算
(4)
相关值从-1到1,两个相关窗口极度相似时为1,极度不相似时为-1.
4)环境特征深度提取,本发明基于双目视觉测量中视差原理来计算距离,双目相机间的基线距离为B,相机的焦距为f,空间中任意一点P(x,y,z)在左右图像上的像点分别为和,根据三角形的相似关系可推导出点P在摄像机坐标系中的距离信息:
(5)
像点和,其对应的像素坐标分别为,,由以上关系可得两个像点在像平面坐标系中的坐标分别为,
(6)
由(5)得出空间点P在摄像机坐标中的坐标为
(7)
最后得出空间点P在世界坐标系中的坐标
(8)
机器人运动前空间点以及对应运动后的可建立匹配环境特征点对集合.
2. 机器人运动估计过程如下:
定义、分别表示空间特征点在运动前后两个摄像机坐标系下的位置信息,则可建立运动估计模型:
(10)
其中为第次运动前后的坐标旋转矩阵,为第次运动前后的平移矩阵,为观测误差向量,
,,, (11)
1)鲁棒运动参数估计:从空间特征点集中随机选取三组不共线的特征点,,,利用奇异值分解方法求出,,对求得的 ,回代求每个特征点对应的误差平方
(12)
重复采样m次,求出m个中值的最小值:
(13)
2)奇异值分解法确定运动参数:选择三个不共线特征点对,令:
(14)
其中、分别为机器人运动前后空间特征点的质心:
(15)
构造矩阵B:
(16)
奇异值分解,可以得到旋转矩阵:
(17)
3)非线性运动参数估计:旋转矩阵用四元数来表示,运动估计就是利用匹配点集通过对以下目标函数最小化来估计运动参数:
(18)
其中:.L-M算法通过迭代求解上式来计算的最小值:
(19)
其中:
由此可得到双目立体测距条件下的自运动参数。
本发明的技术效果:
本发明提出了一种可在复杂环境下进行自主移动的导航算法,精确估计机器人在移动过程中的运动状态,从而提高了机器人在复杂环境下进行自主定位的导航性能。
附图说明:
图1为三角测量方法原理模型;
图2为L-M运动估计算法流程图;
图3为机器人的实际运动轨迹;
图4为本发明计算的双目视觉运动估计误差曲线;
图5为本发明计算出的姿态参数曲线;
图6为本专利计算出的姿态参数残差曲线;
图7为本发明与里程计相比较,二者之间的定位误差对比图。
具体实施过程:
参见图1-图7描述本发明具体实施过程
1、首先对基于视觉序列图像的导航参数进行估计:
1)图像噪声处理:本专利利用一种该进的中值滤波算法,像素灰度计算如下:
其中:分别为像素的邻域上、左、下、右上的像素,为像素的邻域对角方向上的像素,为取中值运算符.
2)特征点提取,本发明采用Harris算子模型中表示像元灰度值,并分别用表示像元在X和Y方向的梯度,Harris算子将角点响应函数表示为该像元的协方差矩阵行列式与方阵的迹:
(1)
3)立体匹配,本发明采用相关匹配的方法进行匹配,该方法是根据两幅图像中特征点的相关程度来确定其匹配关系,相关值定义为:
(2)
其中,为灰度均值,且有
(3)
为图像k以特征点为中心领域图像的标准偏差,可由以下公式计算
(4)
相关值从-1到1,两个相关窗口极度相似时为1,极度不相似时为-1.
4)环境特征深度提取,本发明基于双目视觉测量中视差原理来计算距离,如附图1所示,双目相机间的基线距离为B,相机的焦距为f,空间中任意一点P(x,y,z)在左右图像上的像点分别为和,根据三角形的相似关系可推导出点P在摄像机坐标系中的距离信息:
(5)
像点和,其对应的像素坐标分别为,,由以上关系可得两个像点在像平面坐标系中的坐标分别为,
(6)
由(5)得出空间点P在摄像机坐标中的坐标为
(7)
最后得出空间点P在世界坐标系中的坐标
(8)
机器人运动前空间点以及对应运动后的可建立匹配环境特征点对集合.
2. 机器人运动估计过程如下:
定义、分别表示空间特征点在运动前后两个摄像机坐标系下的位置信息,则可建立运动估计模型:
(10)
其中为第次运动前后的坐标旋转矩阵,为第次运动前后的平移矩阵,为观测误差向量,
,,, (11)
1)鲁棒运动参数估计:从空间特征点集中随机选取三组不共线的特征点,,,利用奇异值分解方法求出,,对求得的 ,回代求每个特征点对应的误差平方
(12)
重复采样m次,求出m个中值的最小值:
(13)
2)奇异值分解法确定运动参数:选择三个不共线特征点对,令:
(14)
其中、分别为机器人运动前后空间特征点的质心:
(15)
构造矩阵B:
(16)
奇异值分解,可以得到旋转矩阵:
(17)
3)非线性运动参数估计:本发明引入Levenberg-Marquardt算法对运动参数进行迭代求解,根据姿态运动学,本发明选择旋转矩阵用四元数的形式来表示,,空间中一点经过旋转变为,如果把和均用四元数的形式表示,即:
(18)
其中,,整理得
(19)
其中
,
由以上公式可得:
即
(20)
又由于得:
(21)
平移可用表示,假如用表示运动参数估计量:
(22)
运动估计就是利用匹配点集通过对以下目标函数最小化来估计运动参数:
(23)
其中,.
L-M算法通过迭代求解来计算的最小值:
(24)
其中
(25)
(26)
为迭代因子,在计算过程中可以实时调整大小以保证算法收敛的速度和精度。
由可知,为的矩阵:
(237)
L-M算法的迭代初值由鲁棒方法的运算结果、得出,算法的流程如附图2所示,在进行迭代求解的过程中,每一个迭代步骤中的参数矢量利用归一化条件进行化简,即。
最后,本发明利用仿真算例对提出的方法进行验证,在世界坐标系中随机生成10个特征点,设定双目视觉系统的相机焦距为7mm,基线距离为25cm,在机器人运行过程中,在每一时刻都可以通过坐标变换来获得特征点在摄像机坐标系中的坐标,根据双目测距原理,用两个相邻时刻的空间特征点的坐标信息来对火星漫游器的定位信息进行估计,进而利用获得的导航信息来对机器人的运动情况计算,假定机器人的行进轨迹为
其中,A=0.3,B=0.5,φ=-π/3,附图3给出了机器人的实际运动轨迹,附图4为本发明计算的双目视觉运动估计误差曲线,附图5为本发明计算出的姿态参数曲线,附图6为本发明计算出的姿态参数残差曲线,附图7为本发明与里程计相比较,二者之间的定位误差对比图。
Claims (7)
1.本发明提出一种机器人立体视觉自运动估计是一套自主定位方案,可满足复杂地形情况下机器人自主巡游过程中导航定位的需要,不仅如此,此算法可大大实现机器人的智能化需求,整个部分分为两大部分,第一部分主要是相机标定、图像采集与预处理过程,需要首先对原始图像进行噪声过滤、灰度校正等图像预处理,最后输出立体图像对;第二部分主要由视觉图像处理和运动估计两个模块组成,由运动估计模块处理图像中特征点位置变化,来估计机器人自身的导航参数。
2. 本发明在特征点提取和立体匹配过程中权利要求:
1)特征点提取算法采用Harris算子模型,用 表示像元灰度值,并分别用表示像元在X和Y方向的梯度,Harris算子将角点响应函数表示为该像元的协方差矩阵行列式与方阵的迹,即
(1)
3)立体匹配:采用相关匹配的方法进行匹配,该方法是根据两幅图像中特征点的相关程度来确定其匹配关系,相关值定义为:
(2)
其中,为灰度均值,且有
(3)
为图像k以特征点为中心领域图像的标准偏差,可由以下公式计算
(4)
相关值从-1到1,两个相关窗口极度相似时为1,极度不相似时为-1。
3.本发明在环境特征深度信息提取中权利要求:
双目视觉测量是根据视差原理来计算距离,设双目相机间的基线距离为B,相机的焦距为f,空间中任意一点P(x,y,z)在左右图像上的像点分别为和,根据三角形的相似关系可推导出点P在摄像机坐标系中的距离信息:
(5)
像点和,其对应的像素坐标分别为,,由以上关系可得两个像点在像平面坐标系中的坐标分别为,
(6)
由(5)得出空间点P在摄像机坐标中的坐标为
(7)
最后得出空间点P在世界坐标系中的坐标
(8)
机器人运动前空间点以及对应运动后的可建立匹配环境特征点对集合。
4.本发明在机器人运动估计过程权利要求如下:
定义、分别表示空间特征点在运动前后两个摄像机坐标系下的位置信息,则可建立运动估计模型:
(10)
其中为第次运动前后的坐标旋转矩阵,为第次运动前后的平移矩阵,为观测误差向量,
,,, (11)
由上述观测误差向量可得到运动参数估计。
5.本发明权利要求一种鲁棒运动参数估计
从空间特征点集中随机选取三组不共线的特征点,,,利用奇异值分解方法求出,,对求得的 ,回代求每个特征点对应的误差平方
(12)
重复采样m次,求出m个中值的最小值:
(13)。
6.本发明要求一种奇异值分解法确定运动参数
选择三个不共线特征点对,令:
(14)
其中、分别为机器人运动前后空间特征点的质心:
(15)
构造矩阵B:
(16)
奇异值分解,可以得到旋转矩阵:
(17)。
7.本发明权利要求一种非线性运动参数估计
旋转矩阵用四元数来表示,运动估计就是利用匹配点集通过对以下目标函数最小化来估计运动参数:
(18)
其中:.L-M算法通过迭代求解上式来计算的最小值:
(19)
其中:
由此可得到双目立体测距条件下的自运动参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310281695.0A CN104281148A (zh) | 2013-07-07 | 2013-07-07 | 基于双目立体视觉的移动机器人自主导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310281695.0A CN104281148A (zh) | 2013-07-07 | 2013-07-07 | 基于双目立体视觉的移动机器人自主导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104281148A true CN104281148A (zh) | 2015-01-14 |
Family
ID=52256132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310281695.0A Pending CN104281148A (zh) | 2013-07-07 | 2013-07-07 | 基于双目立体视觉的移动机器人自主导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104281148A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105204411A (zh) * | 2015-08-11 | 2015-12-30 | 上海交通大学 | 一种基于双目立体视觉的船舶靠泊辅助系统及方法 |
CN105302135A (zh) * | 2015-09-18 | 2016-02-03 | 天津鑫隆机场设备有限公司 | 基于双目视觉的助航灯光光强检测车导航与定位系统 |
CN106127117A (zh) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | 基于双目视觉快速高鲁棒性识别、定位的自动跟随行李箱 |
WO2017059581A1 (en) * | 2015-10-09 | 2017-04-13 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
CN106709950A (zh) * | 2016-11-28 | 2017-05-24 | 西安工程大学 | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 |
CN107063231A (zh) * | 2017-03-22 | 2017-08-18 | 南京农业大学 | 一种基于双目视觉的拖拉机运动矢量预测方法 |
CN107301666A (zh) * | 2017-06-28 | 2017-10-27 | 电子科技大学 | 机器人自动射击方法 |
CN107564061A (zh) * | 2017-08-11 | 2018-01-09 | 浙江大学 | 一种基于图像梯度联合优化的双目视觉里程计算方法 |
CN108107882A (zh) * | 2016-11-24 | 2018-06-01 | 中国科学技术大学 | 基于光学运动跟踪的服务机器人自动标定与检测系统 |
CN110110131A (zh) * | 2019-05-23 | 2019-08-09 | 北京航空航天大学 | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 |
CN111012506A (zh) * | 2019-12-28 | 2020-04-17 | 哈尔滨工业大学 | 基于立体视觉的机器人辅助穿刺手术末端工具中心标定方法 |
CN111435092A (zh) * | 2019-01-11 | 2020-07-21 | 塔莱斯公司 | 用于确定基于视觉的导航系统的保护半径的方法 |
CN113610922A (zh) * | 2021-08-06 | 2021-11-05 | 北京理工大学 | 一种用于自动加油机器人加油盖位姿估计的方法 |
CN116452878A (zh) * | 2023-04-20 | 2023-07-18 | 广东工业大学 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
WO2024027647A1 (zh) * | 2022-08-02 | 2024-02-08 | 深圳微美机器人有限公司 | 机器人控制方法、系统和计算机程序产品 |
-
2013
- 2013-07-07 CN CN201310281695.0A patent/CN104281148A/zh active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105204411A (zh) * | 2015-08-11 | 2015-12-30 | 上海交通大学 | 一种基于双目立体视觉的船舶靠泊辅助系统及方法 |
CN105204411B (zh) * | 2015-08-11 | 2018-04-17 | 上海交通大学 | 一种基于双目立体视觉的船舶靠泊辅助系统及方法 |
CN105302135A (zh) * | 2015-09-18 | 2016-02-03 | 天津鑫隆机场设备有限公司 | 基于双目视觉的助航灯光光强检测车导航与定位系统 |
CN105302135B (zh) * | 2015-09-18 | 2017-10-20 | 天津鑫隆机场设备有限公司 | 基于双目视觉的助航灯光光强检测车导航与定位系统 |
WO2017059581A1 (en) * | 2015-10-09 | 2017-04-13 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
US10599149B2 (en) | 2015-10-09 | 2020-03-24 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
CN108139758A (zh) * | 2015-10-09 | 2018-06-08 | 深圳市大疆创新科技有限公司 | 基于显著性特征的载运工具定位 |
CN106127117A (zh) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | 基于双目视觉快速高鲁棒性识别、定位的自动跟随行李箱 |
CN106127117B (zh) * | 2016-06-16 | 2020-01-31 | 哈尔滨工程大学 | 基于双目视觉快速高鲁棒性识别、定位的自动跟随行李箱 |
CN108107882A (zh) * | 2016-11-24 | 2018-06-01 | 中国科学技术大学 | 基于光学运动跟踪的服务机器人自动标定与检测系统 |
CN106709950A (zh) * | 2016-11-28 | 2017-05-24 | 西安工程大学 | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 |
CN107063231A (zh) * | 2017-03-22 | 2017-08-18 | 南京农业大学 | 一种基于双目视觉的拖拉机运动矢量预测方法 |
CN107063231B (zh) * | 2017-03-22 | 2020-06-30 | 南京农业大学 | 一种基于双目视觉的拖拉机运动矢量预测方法 |
CN107301666A (zh) * | 2017-06-28 | 2017-10-27 | 电子科技大学 | 机器人自动射击方法 |
CN107564061A (zh) * | 2017-08-11 | 2018-01-09 | 浙江大学 | 一种基于图像梯度联合优化的双目视觉里程计算方法 |
CN111435092A (zh) * | 2019-01-11 | 2020-07-21 | 塔莱斯公司 | 用于确定基于视觉的导航系统的保护半径的方法 |
CN111435092B (zh) * | 2019-01-11 | 2024-07-05 | 塔莱斯公司 | 用于确定基于视觉的导航系统的保护半径的方法 |
CN110110131A (zh) * | 2019-05-23 | 2019-08-09 | 北京航空航天大学 | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 |
CN110110131B (zh) * | 2019-05-23 | 2021-04-13 | 北京航空航天大学 | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 |
CN111012506A (zh) * | 2019-12-28 | 2020-04-17 | 哈尔滨工业大学 | 基于立体视觉的机器人辅助穿刺手术末端工具中心标定方法 |
CN113610922A (zh) * | 2021-08-06 | 2021-11-05 | 北京理工大学 | 一种用于自动加油机器人加油盖位姿估计的方法 |
WO2024027647A1 (zh) * | 2022-08-02 | 2024-02-08 | 深圳微美机器人有限公司 | 机器人控制方法、系统和计算机程序产品 |
CN116452878A (zh) * | 2023-04-20 | 2023-07-18 | 广东工业大学 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
CN116452878B (zh) * | 2023-04-20 | 2024-02-02 | 广东工业大学 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104281148A (zh) | 基于双目立体视觉的移动机器人自主导航方法 | |
CN104732518B (zh) | 一种基于智能机器人地面特征的ptam改进方法 | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
JP5991952B2 (ja) | 周囲状況に対するカメラの姿勢を求めるための方法 | |
CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位系统及方法 | |
CN111862673B (zh) | 基于顶视图的停车场车辆自定位及地图构建方法 | |
CN106595659A (zh) | 城市复杂环境下多无人机视觉slam的地图融合方法 | |
CN104359464A (zh) | 基于立体视觉的移动机器人定位方法 | |
CN114234967B (zh) | 一种基于多传感器融合的六足机器人定位方法 | |
Munguia et al. | Monocular SLAM for visual odometry | |
CN113570662B (zh) | 3d定位来自真实世界图像中地标的系统和方法 | |
CN108053445A (zh) | 特征融合的rgb-d相机运动估计方法 | |
CN112258409A (zh) | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 | |
CN114693754A (zh) | 一种基于单目视觉惯导融合的无人机自主定位方法与系统 | |
CN115371665A (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
CN115218889A (zh) | 一种基于点线特征融合的多传感器室内定位方法 | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
CN116380079A (zh) | 一种融合前视声呐与orb-slam3的水下slam方法 | |
Mariottini et al. | An accurate and robust visual-compass algorithm for robot-mounted omnidirectional cameras | |
CN116929348A (zh) | 基于单基站uwb和视觉惯性的工厂agv定位方法 | |
Beauvisage et al. | Robust multispectral visual-inertial navigation with visual odometry failure recovery | |
CN109443355B (zh) | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
Hoang et al. | Motion estimation based on two corresponding points and angular deviation optimization | |
Gokhool et al. | A dense map building approach from spherical RGBD images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150114 |