CN110722547B - 模型未知动态场景下移动机器人视觉镇定 - Google Patents
模型未知动态场景下移动机器人视觉镇定 Download PDFInfo
- Publication number
- CN110722547B CN110722547B CN201810787727.7A CN201810787727A CN110722547B CN 110722547 B CN110722547 B CN 110722547B CN 201810787727 A CN201810787727 A CN 201810787727A CN 110722547 B CN110722547 B CN 110722547B
- Authority
- CN
- China
- Prior art keywords
- pose
- robot
- image
- coordinate system
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
模型未知动态场景下移动机器人视觉镇定系统的设计。本文提出了一种新的视觉伺服策略,可在动态场景中利用模型未知的特征点完成轮式移动机器人的视觉镇定控制。现有方法一般采用静止特征点进行镇定控制,不过由于人为移动或外界扰动,特征点会发生移动。此外,未知的深度信息为镇定控制带来很大挑战。在动态场景中,为了完成视觉伺服任务,本文引入了监视摄像机以检测场景的变化。基于此,首先利用特征点和视觉图像的几何关系计算出不同场景深度的比例。然后,通过单应矩阵分解和坐标系变换,求出各个坐标系之间的相对关系。最后,采用自适应控制器将机器人驱动到期望位姿处。仿真和实验结果证明了所提方法的可行性。
Description
技术领域
本发明属于计算机视觉与移动机器人的技术领域,可在动态场景中利用模型未知的特征点完成视觉的镇定控制。
背景技术
视觉作为人类获取信息的重要感官之一,人类每天从视觉图像中获得大量的信息。视觉传感器是机器人的重要传感器,再加上其非接触式测量、成本低等特点,应用范围越来越广泛。然而,对应现实中都是三维场景,投影到摄像机中成为了二维图像,导致了深度信息的缺失。因此,对于单目移动机器人来说,对3D场景进行重建是有困难的。此外,轮式移动机器人是一个典型的具有非完整性约束的欠驱动系统。以上这些限制使视觉镇定控制成为控制领域比较困难的任务之一,在动态场景下完成镇定控制变得更具挑战性。
当前,移动机器人视觉伺服实现的主要功能是:利用实时的视觉信号进行反馈以控制移动机器人的运动,最终使机器人到达指定的位姿处或跟踪设定的轨迹。移动机器人的视觉镇定控制一般利用固定的特征点的当前图像和期望图像之间的误差来获得实时的位姿。如果特征点变动,那么将导致镇定控制任务失败。如果在动态场景中移动机器人视觉系统仍能完成镇定控制,它们会变得更加智能并能更好的适应环境变化。因此,需要设计一种新的策略以解决动态场景下的视觉镇定控制问题。
发明内容
本文基于单目轮式移动机器人,设计了一种可在动态场景中利用模型未知的特征点完成视觉镇定控制的策略。
本文提出了一种新的视觉伺服策略,可在动态场景中利用模型未知的特征点完成轮式移动机器人的视觉镇定控制。在动态场景中,为了完成视觉伺服任务,本文引入了监视摄像机以检测场景的变化。基于此,首先利用特征点和视觉图像的几何关系计算出不同场景深度的比例。然后,通过单应矩阵分解和坐标系变换,求出各个坐标系之间的相对关系。最后,采用自适应控制器将机器人驱动到期望位姿处。仿真和实验结果证明了所提方法的可行性。
本发明提供的移动机器人的视觉镇定系统方法包括:
一种模型未知动态场景下移动机器人视觉镇定系统,其特征包括以下步骤:
第1,问题描述
第1.1,系统描述
设置摄像机坐标系与移动机器人坐标系相重合,定义在当前位姿处的机器人/摄像机坐标系为其中的原点处于摄像机的光心位置并且是机器人的轮轴中心;的zc轴沿着摄像机的光轴方向,同时也是机器人前进的方向,xc轴和机器人的轮轴平行,yc轴垂直于zcxc平面;定义表示移动机器人期望位姿的坐标系,表示监视摄相机位姿的坐标系,监视摄像机的作用是监视特征点的移动,坐标系相对关系如附图1所示;Mi定义为特征点移动之前的位置;定义为特征点移动之后的位置;符号e(t)定义为机器人期望位姿与当前位姿之间的距离;θ(t)定义为期望位姿与当前位姿的旋转角度;α(t)定义为机器人当前的方向与到的平移向量之间的角度;φ(t)定义为机器人期望位姿的方向与到平移向量之间的角度;
第1.2,控制方案
附图2给出了所提供方案的框图,框图中的图像1表示特征点移动前在监视相机中的图像,图像2表示特征点移动后在监视相机中的图像;整个视觉伺服策略由四个阶段组成:第一阶段,期望图像和图像1可以估计出第一个单应矩阵,通过矩阵分解可得到监视摄相机位姿与期望位姿之间旋转矩阵和平移向量dTm;第二阶段,当前图像与图像2结合可以得到第二个单应矩阵,同第一步,可以得到机器人当前坐标系与监视相机坐标系之间旋转矩阵和平移向量cTm;第三阶段,利用特征点与视觉图像之间的几何关系,计算出该两个不同深度信息之间的比例λ;第四阶段,根据坐标系变换规则,实时地计算出机器人当前位姿与期望位姿之间的旋转矩阵和平移向量cTd(t),进而采用自适应控制器将轮式移动机器人驱动到期望位姿处;
第1.3,坐标关系的表示
第1.4,图像表示
第2,控制策略
第2.1,监视相机与期望位姿的关系
第2.2,监视相机与当前位姿的关系
第2.3,两个未知深度信息之间的比例因子
所以不同深度信息之间的比例可计算如下:
第2.4,当前位姿与期望位姿的关系
监视相机位姿与机器人期望位姿之间的关系可表示为:
移动机器人的当前位姿与监视相机位姿之间的相对关系可表示为:
所以通过坐标系变换得到实时的移动机器人当前位姿与期望位姿之间的关系可表示为:
第3,驱动机器人到期望位姿
第3.1,运动学模型
基于极坐标的机器人运动学模型表示如下:
根据系统需要将其重新定义为:
第3.2,自适应控制器
由于深度信息未知,可以通过采用一个自适应控制器来完成镇定控制任务;利用可获得的信号φ(t),α(t)和es(t)设计机器人的线速度和角速度表示如下:
v=(γcosα)es, (34)
附图说明:
图1为视觉伺服任务的坐标系关系
图2为动态场景下视觉伺服策略图
图3为深度信息dm示意图
图4为仿真图:机器人的位姿变化
图5为仿真图:机器人线速度和角速度
图6为仿真图:特征点图像轨迹图
图7为仿真图:机器人的移动轨迹
图8为实验图:机器人放置到期望位姿采集期望图像
图9为实验图:监视相机捕获的图
图10为实验图:特征点的图像轨迹
图11为实验图:机器人的实时的位姿变化
图12为实验图:机器人的线速度和角速度
图13为实验图:机器人的移动轨迹
具体实施方式:
1、模型未知动态场景下移动机器人视觉镇定系统,其特征包括以下步骤:
第1,问题描述
第1.1,系统描述
设置摄像机坐标系与移动机器人坐标系相重合,定义在当前位姿处的机器人/摄像机坐标系为其中的原点处于摄像机的光心位置并且是机器人的轮轴中心;的zc轴沿着摄像机的光轴方向,同时也是机器人前进的方向,xc轴和机器人的轮轴平行,yc轴垂直于zcxc平面;定义表示移动机器人期望位姿的坐标系,表示监视摄相机位姿的坐标系,监视摄像机的作用是监视特征点的移动,坐标系相对关系如附图1所示;Mi定义为特征点移动之前的位置;定义为特征点移动之后的位置;符号e(t)定义为机器人期望位姿与当前位姿之间的距离;θ(t)定义为期望位姿与当前位姿的旋转角度;α(t)定义为机器人当前的方向与到的平移向量之间的角度;φ(t)定义为机器人期望位姿的方向与到平移向量之间的角度;
第1.2,控制方案
附图2给出了所提供方案的框图,框图中的图像1表示特征点移动前在监视相机中的图像,图像2表示特征点移动后在监视相机中的图像;整个视觉伺服策略由四个阶段组成:第一阶段,期望图像和图像1可以估计出第一个单应矩阵,通过矩阵分解可得到监视摄相机位姿与期望位姿之间旋转矩阵和平移向量dTm;第二阶段,当前图像与图像2结合可以得到第二个单应矩阵,同第一步,可以得到机器人当前坐标系与监视相机坐标系之间旋转矩阵和平移向量cTm;第三阶段,利用特征点与视觉图像之间的几何关系,计算出该两个不同深度信息之间的比例λ;第四阶段,根据坐标系变换规则,实时地计算出机器人当前位姿与期望位姿之间的旋转矩阵和平移向量cTd(t),进而采用自适应控制器将轮式移动机器人驱动到期望位姿处;
第1.3,坐标关系的表示
第1.4,图像表示
第2,控制策略
第2.1,监视相机与期望位姿的关系
第2.2,监视相机与当前位姿的关系
第2.3,两个未知深度信息之间的比例因子
所以不同深度信息之间的比例可计算如下:
第2.4,当前位姿与期望位姿的关系
监视相机位姿与机器人期望位姿之间的关系可表示为:
移动机器人的当前位姿与监视相机位姿之间的相对关系可表示为:
所以通过坐标系变换得到实时的移动机器人当前位姿与期望位姿之间的关系可表示为:
第3,驱动机器人到期望位姿
第3.1,运动学模型
基于极坐标的机器人运动学模型表示如下:
根据系统需要将其重新定义为:
第3.2,自适应控制器
由于深度信息未知,可以通过采用一个自适应控制器来完成镇定控制任务;利用可获得的信号φ(t),α(t)和es(t)设计机器人的线速度和角速度表示如下:
v=(γcosα)es, (52)
第4,仿真及实验结果
第4.1,仿真结果
通过仿真来证明该方法的有效性。在仿真场景中设置了4个共面特征点,并且设置了移动后的特征点。
仿真中的虚拟相机内参数设置为:
如附图,图4是移动机器人的(dTcx(t),dTcz(t),θ(t))进程状态,可以看出所有的值均趋于零。图5是移动机器人随时间变化的线速度和角速度。在图6是特征点在图像中的变化轨迹,图中的圆点表示初始位姿时刻的特征点图像坐标,正方形表示的是机器人到达期望位姿时特征点在图像中的位置,星形是特征点移动前在期望位姿处的图像位置。图7是机器人在三维空间中的移动路径。
第4.2,实验结果
经过仿真之后,接下来进行实验以进一步验证所提方法的有效性。如图8所示,实验用的是带有车载摄像机的IN-R型移动机器人,本文方法是在配备有OpenCV库的VC++6.0环境下实现的。
如附图,图8是机器人放置到期望位姿采集期望图像。图9是将机器人随机放置到其他位置(初始位姿),与此同时特征点做了相应的移动(模拟特征点受到外界较大干扰)监视相机捕获到的图像,左边是特征点移动前的图像,右边是特征点移动后的图像。图10是特征点在摄像机中的图像变化,图形的表示方法与仿真中叙述的一致。图11是移动机器人(dTcx(t),dTcz(t),θ(t))的实时变化,红色虚线是期望值,蓝色线为实际的值,可以看出三条轨迹逐渐趋于期望值。图12是试验中移动机器人的线速度和角速度变化,最终都趋于零。图13是移动机器人从初始位姿到期望位姿的路径,红三角是期望位姿处,可见机器人最终镇定到了期望位姿处。实验表明所提出方法具有可行性。
第4.3,结论
在本文中,提出了一种新颖的处理动态场景下的视觉伺服策略,并且场景中特征点的3D模型是未知的。首先,利用单应矩阵分解方法计算出期望位姿与监视相机之间的关系。然后利用同样的方法计算出当前位姿与监视相机之间的关系。由于场景的变化导致深度信息的不同,所以需要得到两者之间的比例,以用来将平移向量转变成含有同一个深度信息。接下来,结合坐标系变换算出实时的当前位姿与期望位姿之间的关系。最后,采用一个自适应控制器将机器人驱动到期望位姿处。仿真和实验结果都证明了该策略的可行性。
Claims (1)
1.模型未知动态场景下移动机器人视觉镇定系统,其特征包括以下步骤:
第1,问题描述
第1.1,系统描述
设置摄像机坐标系与移动机器人坐标系相重合,定义在当前位姿处的机器人/摄像机坐标系为其中的原点处于摄像机的光心位置并且是机器人的轮轴中心;的zc轴沿着摄像机的光轴方向,同时也是机器人前进的方向,xc轴和机器人的轮轴平行,yc轴垂直于zcxc平面;定义表示移动机器人期望位姿的坐标系,表示监视摄相机位姿的坐标系,监视摄像机的作用是监视特征点的移动;Mi定义为特征点移动之前的位置;定义为特征点移动之后的位置;符号e(t)定义为机器人期望位姿与当前位姿之间的误差;θ(t)定义为期望位姿与当前位姿的旋转角度;α(t)定义为机器人当前的方向与到的平移向量之间的角度;φ(t)定义为机器人期望位姿的方向与到平移向量之间的角度;
第1.2,控制方案
图像1表示特征点移动前在监视相机中的图像,图像2表示特征点移动后在监视相机中的图像;整个视觉伺服策略由四个阶段组成:第一阶段,机器人在期望位姿处拍摄的期望图像和图像1可以估计出第一个单应矩阵,通过矩阵分解可得到监视摄相机位姿与期望位姿之间旋转矩阵和平移向量dTm;第二阶段,当前图像与图像2结合可以得到第二个单应矩阵,通过矩阵分解,可以得到机器人当前坐标系与监视相机坐标系之间旋转矩阵和平移向量cTm;第三阶段,利用特征点与视觉图像之间的几何关系,计算出特征点移动前后两个不同深度信息之间的比例λ;第四阶段,根据坐标系变换规则,实时地计算出机器人当前位姿与期望位姿之间的旋转矩阵和平移向量cTd(t),进而采用自适应控制器将轮式移动机器人驱动到期望位姿处;
第1.3,坐标关系的表示
第1.4,图像表示
第2,控制策略
第2.1,监视相机与期望位姿的关系
第2.2,监视相机与当前位姿的关系
第2.3,两个未知深度信息之间的比例因子
计算出来的dTm(t)和cTm(t)其实不是实际中的平移向量,两个平移向量含有不同的比例因子;和定义为归一化图像坐标平面上的两个特征点,P1 m和P2 m是相对应的两个空间中的特征点;P1 m和dm表示如下:
当特征点移动后,P1 m、dm分别变成了P1 ma、dma;P1 ma和dma表示如下:
所以不同深度信息之间的比例可计算如下:
第2.4,当前位姿与期望位姿的关系
监视相机位姿与机器人期望位姿之间的关系可表示为:
移动机器人的当前位姿与监视相机位姿之间的相对关系可表示为:
所以通过坐标系变换得到实时的移动机器人当前位姿与期望位姿之间的关系可表示为:
第3,驱动机器人到期望位姿
第3.1,运动学模型
基于极坐标的机器人运动学模型表示如下:
根据系统需要将其重新定义为:
第3.2,自适应控制器
由于深度信息未知,可以通过采用一个自适应控制器来完成镇定控制任务;利用可获得的信号φ(t),α(t)和es(t)设计机器人的线速度和角速度表示如下:
v=(γcosα)es, (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810787727.7A CN110722547B (zh) | 2018-07-17 | 2018-07-17 | 模型未知动态场景下移动机器人视觉镇定 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810787727.7A CN110722547B (zh) | 2018-07-17 | 2018-07-17 | 模型未知动态场景下移动机器人视觉镇定 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110722547A CN110722547A (zh) | 2020-01-24 |
CN110722547B true CN110722547B (zh) | 2022-11-15 |
Family
ID=69217592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810787727.7A Active CN110722547B (zh) | 2018-07-17 | 2018-07-17 | 模型未知动态场景下移动机器人视觉镇定 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110722547B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11429112B2 (en) * | 2020-12-31 | 2022-08-30 | Ubtech North America Research And Development Center Corp | Mobile robot control method, computer-implemented storage medium and mobile robot |
US11865724B2 (en) * | 2021-04-26 | 2024-01-09 | Ubkang (Qingdao) Technology Co., Ltd. | Movement control method, mobile machine and non-transitory computer readable storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103900583A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 用于即时定位与地图构建的设备和方法 |
CN106204625A (zh) * | 2016-07-27 | 2016-12-07 | 大连理工大学 | 一种可变焦距柔性化位姿视觉测量方法 |
CN106774309A (zh) * | 2016-12-01 | 2017-05-31 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
CN106940894A (zh) * | 2017-04-12 | 2017-07-11 | 无锡职业技术学院 | 一种基于主动视觉的手眼系统自标定方法 |
CN107627303A (zh) * | 2017-09-22 | 2018-01-26 | 哈尔滨工程大学 | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100246899A1 (en) * | 2009-03-26 | 2010-09-30 | Rifai Khalid El | Method and Apparatus for Dynamic Estimation of Feature Depth Using Calibrated Moving Camera |
US10380764B2 (en) * | 2013-12-18 | 2019-08-13 | Cognex Corporation | System and method for performing vision system planar hand-eye calibration from straight line features |
-
2018
- 2018-07-17 CN CN201810787727.7A patent/CN110722547B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103900583A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 用于即时定位与地图构建的设备和方法 |
CN106204625A (zh) * | 2016-07-27 | 2016-12-07 | 大连理工大学 | 一种可变焦距柔性化位姿视觉测量方法 |
CN106774309A (zh) * | 2016-12-01 | 2017-05-31 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
CN106940894A (zh) * | 2017-04-12 | 2017-07-11 | 无锡职业技术学院 | 一种基于主动视觉的手眼系统自标定方法 |
CN107627303A (zh) * | 2017-09-22 | 2018-01-26 | 哈尔滨工程大学 | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 |
Non-Patent Citations (2)
Title |
---|
Projection Homography Based Uncalibrated Visual Servoing of;Baoquan Li;《Conference on Decision and Control》;20141217;全文 * |
移动机器人自适应视觉伺服镇定控制;张学波;《控制理论与应用》;20100930;第27卷(第9期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110722547A (zh) | 2020-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Malis | Survey of vision-based robot control | |
CN108994832B (zh) | 一种基于rgb-d相机的机器人手眼系统及其自标定方法 | |
CA2928645A1 (en) | Image-based robot trajectory planning approach | |
CN106774309A (zh) | 一种移动机器人同时视觉伺服与自适应深度辨识方法 | |
JP2022542241A (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
Gong et al. | An uncalibrated visual servo method based on projective homography | |
Husain et al. | Realtime tracking and grasping of a moving object from range video | |
Li et al. | Visual servoing of wheeled mobile robots without desired images | |
JP2015501471A (ja) | 車載搭載型のコンピュータ・ベース視覚システムの校正方法 | |
Gratal et al. | Visual servoing on unknown objects | |
CN110722547B (zh) | 模型未知动态场景下移动机器人视觉镇定 | |
Lopez-Nicolas et al. | Nonholonomic epipolar visual servoing | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
Chappellet et al. | Humanoid loco-manipulations using combined fast dense 3d tracking and slam with wide-angle depth-images | |
Cai et al. | 6D image-based visual servoing for robot manipulators with uncalibrated stereo cameras | |
Gans et al. | Visual servoing to an arbitrary pose with respect to an object given a single known length | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
Fuchs et al. | Advanced 3-D trailer pose estimation for articulated vehicles | |
Lei et al. | Visually guided robotic tracking and grasping of a moving object | |
Yin et al. | Monitoring-based visual servoing of wheeled mobile robots | |
CN111612843A (zh) | 移动机器人无期望图像视觉镇定控制 | |
Wu et al. | Depth estimation of objects with known geometric model for IBVS using an eye-in-hand camera | |
Cao et al. | Visual Servo Control for wheeled robot platooning based on homography | |
Lai et al. | Homography-based visual servoing for eye-in-hand robots with unknown feature positions | |
CN112123329A (zh) | 一种机器人3d视觉手眼标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |