CN104950893A - 基于单应性矩阵的最短路径视觉伺服控制方法 - Google Patents
基于单应性矩阵的最短路径视觉伺服控制方法 Download PDFInfo
- Publication number
- CN104950893A CN104950893A CN201510373092.2A CN201510373092A CN104950893A CN 104950893 A CN104950893 A CN 104950893A CN 201510373092 A CN201510373092 A CN 201510373092A CN 104950893 A CN104950893 A CN 104950893A
- Authority
- CN
- China
- Prior art keywords
- robot
- stage
- homography matrix
- real
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种基于单应性矩阵的最短路径视觉伺服控制方法,是将机器人的运动分解成三个阶段,首先使机器人旋转到其面向目标图像所在位置点,简称目标点,然后机器人平移至该目标点,最后机器人旋转到目标位姿的角度,每个阶段可依据相应的控制律对机器人的运动进行控制。本发明的方法直接利用单应性矩阵中的元素构成误差函数,不需要进行单应性矩阵的分解,对相机参数和图像噪声的鲁棒性较好,同时解决了单目相机未知深度信息的问题和履带式机器人的非完整约束的问题,使机器人以最短路径稳定的达到目标位姿。
Description
技术领域
本发明涉及一种视觉伺服控制方法,尤其涉及一种基于单应性矩阵的最短路径视觉伺服控制方法。
背景技术
自动寻物机器人已经逐步被投用于工业生产中,现有的自动寻物机器人通常采用已知地图的高精确定位寻物,灵活性差并且实现成本高。一些机器人采用基于视觉信息的伺服控制方法控制机器人运动以提高灵活性和稳定性。基于图像的视觉伺服控制系统反馈信息定义在图像平面,其控制目标是使当前获取的图像状态s和给定的目标图片状态s*的误差最小。利用机器视觉的相关知识,可以通过对当前图像和目标图像匹配得到对应的特征点,用图像特征点的像素坐标结合相机参数构造图片状态s,设计控制器使s和s*间的误差减小以实现控制目标。但是利用单目相机获取图像信息进行控制的方案中一个十分重要的问题就是无法获取深度信息。近年来有许多学者提出了不同的办法以试图解决这一问题,如利用线性化系统模型并结合扩展卡尔曼滤波(EKF)算法以补偿深度信息,使用单目全景摄像机系统的反馈完成沿墙壁运动、跟踪标记或位置校准等等。但是,使用EKF算法估计深度信息存在需要对模型进行线性化处理的缺点。除EKF算法外,有学者尝试利用从连续图像的光流信息中得到的表观速度去估计深度信息,但是光流技术需要大量的图像处理工作,会导致机器人控制方面的实时性变差。也有学者在工作空间中增加一个不需标定的固定相机以开发自适应跟踪控制器,用以弥补相机参数和机器人动力学建模的误差,但这种方法需要相机到机器人运动平面的距离维持不变。
机器人的非完整约束是指机器人在移动过程中同时受到空间位置和运动速度的约束,并且运动速度不能积分以转换为空间位置。由于存在非完整约束,机器人的控制变量的维数小于机器人状态空间的维数,使对机器人的运动控制变得困难。非完整约束在机器人系统中占据着十分重要的位置,许多移动机器人、角动量守恒空间机器人以及冗余度机器人等系统结构中都包含着非完整约束的应用。对非完整约束早期的研究主要是运用微分方程理论和变分原理等对系统进行建模分析等等,随后有学者将微分几何、群论等数学工具应用于非线性系统分析,使得对非完整系统的研究有了较快发展,但是分析的过程仍然较为复杂。
现有的自动寻物机器人通常采用已知地图的高精确定位寻物,灵活性差并且实现成本高,有些通过视觉伺服控制的机器人需要双目相机来计算深度信息,使得运算复杂并且实现成本较高。
发明内容
本发明的目的在于针对现有技术的不足,提供一种简单稳定、易于实现的基于单应性矩阵的最短路径视觉伺服控制方法。
本发明的基于单应性矩阵的最短路径视觉伺服控制方法,包括如下步骤:
1)以机器人前进方向为z轴,垂直地面向下为y轴,建立机器人的右手坐标系;
2)将机器人捕捉的实时画面与给定的目标图像进行匹配得到相应的实时的单应性矩阵:
分三个阶段控制机器人的运动,根据实时计算出的单应性矩阵得到每一阶段实时的控制律如下:
阶段Ⅰ:
当w=0时,阶段Ⅰ结束,机器人的运动进入阶段Ⅱ;
阶段Ⅱ:
当v=0时,阶段Ⅱ结束,机器人的运动进入阶段Ⅲ;
阶段Ⅲ:v=0,w=-kw3h13
当w=0时,机器人到达目标位姿,运动结束;
其中,v为机器人实时线速度,w为机器人实时角速度,kv、kw1、kw2、kw3为比例因子,且kv∈(0,1),kw1∈(0,0.3),kw2∈(0,0.3),kw3∈(0,2),αx为机器人的相机的焦距在图像平面像素水平排列方向上占据的单位像素个数。
上述技术方案所依据的控制思路如下:
将机器人的运动分解成三个阶段,首先使机器人旋转到其面向目标图像所在位置点,简称目标点,然后机器人平移至该目标点,最后机器人旋转到目标位姿的角度,比较每个阶段单应性矩阵的各元素的差异得出速度的控制方程。
对于一个平面上的机器人,以其前进方向为z轴,垂直地面向下为y轴,建立机器人的右手坐标系,如图1所示;可以将它相对于目标位姿的旋转矩阵和平移矩阵化简如下:
其中,x、z分别为机器人当前位置在目标位姿坐标系中的表示,φ为机器人实时位姿与目标位姿间的夹角,机器人的当前位姿可以由状态向量(x,z,φ)表示。
相应的机器人的单应性矩阵可以写成:
其中各元素分别由下式计算得出:
其中,αx为机器人的相机的焦距在图像平面像素水平排列方向上占据的单位像素个数,
αy为机器人的相机的焦距在图像平面像素垂直排列方向上占据的单位像素个数,
[nx,ny,nz]T为给定的目标图像的法向量在目标位姿坐标系中的表示,
d为目标位姿坐标系的原点到给定的目标图像的距离,
将机器人的运动分解为三个阶段:第一阶段使机器人旋转到其相机指向目标位置,即只做旋转运动;第二阶段使机器人平移到目标位置,即只做平移运动;第三阶段使机器人旋转到正确的角度,即只做旋转运动;三个阶段的运动过程如图2所示。
下面将分析每一阶段中单应性矩阵的变化情况。
机器人刚开始运动时,设机器人当前位置与目标位置的连线与目标位姿坐标系的z轴所形成的夹角为φt,当第一阶段结束时,φ=φt,将该式子代入单应性矩阵中可以得出第一阶段完成时的单应性矩阵的表达式:
第二阶段中,机器人始终指向目标位置,此时一直有φ=φt,第二阶段完成时,x=0,z=0,φ=φt,将上式代入单应性矩阵中可以得出第二阶段完成时的单应性矩阵的表达式:
第三阶段中,机器人在原地旋转到正确的角度,最终达到目标位姿,此时有x=0,z=0,φ=0,将上式代入单应性矩阵中可以得出第三阶段完成时的单应性矩阵的表达式:
H(x=0,z=0,φ=φt)=I
假定相机的标定矩阵是已知的,则可以得到焦距长度αx的值,分析比较这三阶段中单应性矩阵的变化情况,可以得出每一阶段的控制律:
第一阶段的运动目标是达到φ=φt的状态,也就是使机器人指向目标点,这个过程中v始终为0,当φ=φt时,从相应的单应性矩阵中可以得出:
且机器人由φ变化到φt的过程中,上式单调变化至0,因此,第一阶段v和ω的控制式可以写为:
第二阶段中,机器人应平移到目标位置,此时x=0,z=0,在该过程中z逐渐收敛至0,可以看出单应性矩阵中的元素h32的变化规律与z的变化规律一致,且考虑到测量的误差以及环境噪声的影响,仍旧取第一阶段的w控制律作为本阶段的w控制律,因此,第二阶段v和ω的控制式可以写为:
第三阶段中,机器人在原地旋转到目标位姿,此时速度v=0,φ=0,在该过程中,φ逐渐收敛至0,可以看出单应性矩阵中的元素h13的变化规律与φ的变化规律一致,因此,第三阶段v和ω的控制式可以写为:
v=0,w=-kwh13
综上所述,整个运动过程中的控制律为:
阶段Ⅰ:
当w=0时,阶段Ⅰ结束,机器人的运动进入阶段Ⅱ;
阶段Ⅱ:
当v=0时,阶段Ⅱ结束,机器人的运动进入阶段Ⅲ;
阶段Ⅲ:v=0,w=-kw3h13
当w=0时,机器人到达目标位姿,运动结束。
相对于现有技术,本发明的有益效果是:
本发明的基于单应性矩阵的伺服控制方法直接利用单应性矩阵中的元素构成误差函数,不需要进行单应性矩阵的分解,对相机参数和图像噪声的鲁棒性较好,此外,本发明避免了对目标物体未知深度信息的使用,且运动控制律的设计和计算是定义在机器人的前进速度和旋转速度上,使输出的速度指令隐式地满足了非完整约束方程,同时解决了单目相机未知深度信息的问题和履带式机器人的非完整约束的问题,能在未知地图的环境下实现非完整约束的履带式机器人的视觉伺服控制,使机器人以最短路径稳定的达到目标位姿。本发明的控制方法简单,避免了估计深度信息的复杂计算,减小了误差,易于实现。
附图说明
图1为机器人当前位姿与目标位姿的示意图。
图2为本发明的控制率下机器人的运动示意图。图中:Oxz坐标系为目标位姿坐标系,O’x’z’坐标系为机器人当前位置坐标系。
具体实施方式
本实例中采用了AS-RF广茂达能力风暴机器人,AS-RF机器人拥有开放式的软硬件架构,模块化的结构设计以及先进的配件体系和丰富的开发库资源,采用Windows XP的操作系统和Visual C++的开发平台,拥有高强度的铝合金机身,可以抗击5m/s速度下的直接冲撞。它自带一台PC机,并且提供了强大的库函数,偏于编写程序和调试,拥有三个自由度但只有两个驱动,机器人的运动为非完整约束。
在对机器人的运动进行控制之前,先按常规方法对机器人的相机进行标定,获取相机内参,得到参数αx,即机器人的相机的焦距在图像平面像素水平排列方向上占据的单位像素个数。
以机器人前进方向为z轴,垂直地面向下为y轴,建立机器人的右手坐标系。
将机器人捕捉的实时画面与给定的目标图像进行匹配得到相应的实时的单应性矩阵:
计算单应性矩阵时需对两幅图像进行特征点检测和提取,关于特征点检测、提取的算法有很多,如SURF(Speeded Up Robust Features)、SIFT(Scale-invariant Feature Transform)、ORB(ORiented Brief)算法等,综合考虑算法的尺度不变性、快速高效性、鲁棒性、旋转不变性等,实验中采用SURF算法,并用FLANN(Fast ApproximateNearest Neighbor Search Library)算法实现快速高效匹配。再利用提取得到的一组对应特征点,可以直接调用OpenCV的函数计算得到两幅图像间的单应性矩阵。
分三个阶段控制机器人的运动,根据实时计算出的单应性矩阵得到每一阶段对机器人的线速度v和角速度w实时的控制律如下:
1)阶段Ⅰ:
其中,kw1为比例因子,实验中取0.1,以使角速度大小合适。
第一阶段使机器人旋转到其相机指向目标位置,即只做旋转运动,当w=0时,阶段Ⅰ结束,机器人的运动进入阶段Ⅱ;
2)阶段Ⅱ:
其中,kv、kw2为比例因子,实验中取kv=0.1、kw2=0.1,以使线速度和角速度大小合适。
第二阶段使机器人平移到目标位置,即只做平移运动,当v=0时,阶段Ⅱ结束,机器人的运动进入阶段Ⅲ;
3)阶段Ⅲ:v=0,w=-kw3h13
其中,kw3为比例因子,实验中取1,以使角速度大小合适。
第三阶段使机器人旋转到正确的角度,即只做旋转运动,当w=0时,机器人到达目标位姿,运动结束。
Claims (1)
1.基于单应性矩阵的最短路径视觉伺服控制方法,其特征在于,包括如下步骤:
1)以机器人前进方向为z轴,垂直地面向下为y轴,建立机器人的右手坐标系;
2)将机器人捕捉的实时画面与给定的目标图像进行匹配得到相应的实时的单应性矩阵:
分三个阶段控制机器人的运动,根据实时计算出的单应性矩阵得到每一阶段实时的控制律如下:
阶段Ⅰ:
当w=0时,阶段Ⅰ结束,机器人的运动进入阶段Ⅱ;
阶段Ⅱ:
当v=0时,阶段Ⅱ结束,机器人的运动进入阶段Ⅲ;
阶段Ⅲ:v=0,w=-kw3h13
当w=0时,机器人到达目标位姿,运动结束;
其中,v为机器人实时线速度,w为机器人实时角速度,kv、kw1、kw2、kw3为比例因子,且kv∈(0,1),kw1∈(0,0.3),kw2∈(0,0.3),kw3∈(0,2),αx为机器人的相机的焦距在图像平面像素水平排列方向上占据的单位像素个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510373092.2A CN104950893A (zh) | 2015-06-26 | 2015-06-26 | 基于单应性矩阵的最短路径视觉伺服控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510373092.2A CN104950893A (zh) | 2015-06-26 | 2015-06-26 | 基于单应性矩阵的最短路径视觉伺服控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104950893A true CN104950893A (zh) | 2015-09-30 |
Family
ID=54165612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510373092.2A Pending CN104950893A (zh) | 2015-06-26 | 2015-06-26 | 基于单应性矩阵的最短路径视觉伺服控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104950893A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105196292A (zh) * | 2015-10-09 | 2015-12-30 | 浙江大学 | 一种基于迭代变时长视觉伺服控制方法 |
CN106774309A (zh) * | 2016-12-01 | 2017-05-31 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
CN109542094A (zh) * | 2017-09-21 | 2019-03-29 | 天津工业大学 | 无期望图像的移动机器人视觉镇定控制 |
CN110722533A (zh) * | 2018-07-17 | 2020-01-24 | 天津工业大学 | 轮式移动机器人外参数无标定视觉伺服跟踪 |
CN111650936A (zh) * | 2020-06-03 | 2020-09-11 | 杭州迦智科技有限公司 | 一种伺服控制方法、处理器、存储介质和可移动平台 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
CN102567989A (zh) * | 2011-11-30 | 2012-07-11 | 重庆大学 | 基于双目立体视觉的空间定位方法 |
CN102736626A (zh) * | 2012-05-11 | 2012-10-17 | 北京化工大学 | 基于视觉的移动小车位姿镇定控制方法 |
-
2015
- 2015-06-26 CN CN201510373092.2A patent/CN104950893A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
CN102567989A (zh) * | 2011-11-30 | 2012-07-11 | 重庆大学 | 基于双目立体视觉的空间定位方法 |
CN102736626A (zh) * | 2012-05-11 | 2012-10-17 | 北京化工大学 | 基于视觉的移动小车位姿镇定控制方法 |
Non-Patent Citations (2)
Title |
---|
LOPEZ-NICOLAS等: "Homography-Based Control Scheme for Mobile Robots With Nonholonomic and Field-of-View Constraints", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS-PART B:CYBERNETICS》 * |
LOPEZ-NICOLAS等: "Visual Control fot Multirobot Organized Rendezvous", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS-PART B:CYBERNETICS》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105196292A (zh) * | 2015-10-09 | 2015-12-30 | 浙江大学 | 一种基于迭代变时长视觉伺服控制方法 |
CN105196292B (zh) * | 2015-10-09 | 2017-03-22 | 浙江大学 | 一种基于迭代变时长视觉伺服控制方法 |
CN106774309A (zh) * | 2016-12-01 | 2017-05-31 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
CN106774309B (zh) * | 2016-12-01 | 2019-09-17 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
CN109542094A (zh) * | 2017-09-21 | 2019-03-29 | 天津工业大学 | 无期望图像的移动机器人视觉镇定控制 |
CN109542094B (zh) * | 2017-09-21 | 2021-06-08 | 天津工业大学 | 无期望图像的移动机器人视觉镇定控制 |
CN110722533A (zh) * | 2018-07-17 | 2020-01-24 | 天津工业大学 | 轮式移动机器人外参数无标定视觉伺服跟踪 |
CN111650936A (zh) * | 2020-06-03 | 2020-09-11 | 杭州迦智科技有限公司 | 一种伺服控制方法、处理器、存储介质和可移动平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Concha et al. | Visual-inertial direct SLAM | |
Hutchinson et al. | A tutorial on visual servo control | |
CN102722697B (zh) | 一种无人飞行器视觉自主导引着陆的目标跟踪方法 | |
CN104950893A (zh) | 基于单应性矩阵的最短路径视觉伺服控制方法 | |
CN109102525A (zh) | 一种基于自适应位姿估计的移动机器人跟随控制方法 | |
Fang et al. | A real-time 3d perception and reconstruction system based on a 2d laser scanner | |
CN105987697B (zh) | 一种直角弯下Mecanum轮式AGV导航定位方法及系统 | |
Li et al. | A binocular MSCKF-based visual inertial odometry system using LK optical flow | |
CN113778096B (zh) | 室内机器人的定位与模型构建方法及系统 | |
Wei et al. | Novel robust simultaneous localization and mapping for long-term autonomous robots | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
CN111696155A (zh) | 一种基于单目视觉的多传感融合机器人定位方法 | |
CN116429116A (zh) | 一种机器人定位方法及设备 | |
Chen et al. | Application of visual servoing to an X-ray based welding inspection robot | |
CN114782639A (zh) | 一种基于多传感器融合的快速式差速潜伏式agv稠密三维重建方法 | |
Cui et al. | Simulation and Implementation of Slam Drawing Based on Ros Wheeled Mobile Robot | |
Liu et al. | A multi-sensor fusion with automatic vision-LiDAR calibration based on Factor graph joint optimization for SLAM | |
Bajracharya et al. | Target tracking, approach, and camera handoff for automated instrument placement | |
Yaopeng et al. | Review of a 3D lidar combined with single vision calibration | |
Zhang et al. | A visual slam system with laser assisted optimization | |
Xiao et al. | A Simultaneous Localization And Mapping Technology Based On Fusion of Radar and Camera | |
Richardson et al. | PAS: visual odometry with perspective alignment search | |
He et al. | Robust Mapping and Localization in Offline 3D Point Cloud Maps | |
Huang | Overview of Visual SLAM Technology: From Traditional to Deep Learning Methods | |
Wang et al. | PL-ISLAM: An accurate monocular visual-inertial SLAM with point and line features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150930 |
|
WD01 | Invention patent application deemed withdrawn after publication |