CN108927807B - 一种基于点特征的机器人视觉控制方法 - Google Patents
一种基于点特征的机器人视觉控制方法 Download PDFInfo
- Publication number
- CN108927807B CN108927807B CN201810925292.8A CN201810925292A CN108927807B CN 108927807 B CN108927807 B CN 108927807B CN 201810925292 A CN201810925292 A CN 201810925292A CN 108927807 B CN108927807 B CN 108927807B
- Authority
- CN
- China
- Prior art keywords
- point
- camera
- feature
- motion
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于点特征的机器人视觉控制方法,针对难以获取深度信息的单目视觉场景,该方法在深度估计的基础上,利用点特征的雅克比矩阵,将平移运动和旋转运动进行解耦,用平移运动来补偿旋转运动引起的点特征变化,实现机器人的六自由度控制;本发明能够在单目视觉场景下,不需要繁琐的计算,仅利用相机的一次主动运动对目标的深度进行估计,摆脱了深度信息对基于点特征的视觉控制方法的制约,同时将平移运动和旋转运动进行了解耦,保证目标不在视野中丢失,减少了求解深度信息的计算量,提高了视觉控制的成功率,能够进一步推广点特征在单目视觉场景的使用。
Description
技术领域
本发明属于机器人控制领域,更具体地涉及一种基于点特征的视觉控制方法。
背景技术
在机器人控制过程中,对目标的精确识别、定位及检测是控制成功的关键。视觉传感器能够感知丰富的环境信息,且安装使用方便,是进行机器人控制的重要传感器。通过对视觉传感器获取的图像信息进行处理,可以得到目标的轮廓、形状、颜色等信息,还可以实现目标的运动检测、相对定位等。
根据视觉误差信号的选择,可将视觉系统分为基于位置的视觉控制、基于图像的视觉控制和混合视觉控制。其中,基于图像的视觉控制方法对摄像机的标定误差和空间模型误差不敏感,控制器设计的灵活性大,计算过程较简单,在视觉控制领域得到了最为广泛的应用。
在基于图像的视觉伺服控制方法中,点特征是机器人视觉跟踪、视觉控制中的常用特征。然而,单目视觉场景中,由于难以获取目标的深度信息,点特征的使用受到制约。基于此,Liu等建立深度无关的雅克比矩阵,采用eye-in-Hand形式的视觉系统,利用点特征在机器人的关节空间进行视觉伺服控制(Liu Y H,Wang H,Chen W,et al.Adaptive visualservoing using common image features with unknown geometric parameters[J],Automatica,2013,49(8):2453-2460.)。该方法摆脱了深度信息对视觉控制的约束,但在雅克比矩阵估计过程中,需要将深度信息相关的项单独提取出来作为一个比例项,计算过程繁琐。Kawamura等将图像平面的四个点特征构建成一个四边形,通过实时跟踪四个点特征的位置,更新所构建的四边形的虚拟质心,根据虚拟质心当前图像坐标和期望图像坐标之间的偏差,规划机器人的运动路线,实现户外自主移动机器人的运动控制(Kawamura H,Iwata S,Sahashi S,Hasegawa T.Visual attitude control using a virtualvarycenter of a quadrangle that constructed from feature points for outdoorautonomous mobile robots[C].International Symposim on Micro-Nano Mechatronicsand Human Science(MHS).Nagoya,Japan.November 4-7,2012:316-318.)。该方法仅用一个虚拟质心进行机器人多自由度控制,精度难以保证。Cai等提出一种虚拟复合视觉系统以及新的立体视觉模型,分别将任务空间中的点特征的位置信息以及机器人位姿信息映射到新的三维视觉笛卡尔空间中,实现机器人的六自由度控制(Cai C X,Somani N,KnollA.Orthogonal image features for visual servoing of a 6-DOF manipulator withuncalibrated stereo cameras[J],IEEE Transactions on Robotics,2016,32(2):452-461.)。该方法建立了点特征信息和机器人位姿之间的对应关系,但没有考虑平移控制和旋转控制之间的耦合,难以保证目标一直出现在视野当中。
发明内容
基于上述背景,本发明的主要目的在于提供一种基于点特征的机器人六自由度控制方法。
为达到上述目的,本发明利用点特征的雅克比矩阵,在深度估计的基础上,将平移运动和旋转运动进行解耦,用平移运动来补偿旋转运动引起的点特征信息的变化,实现机器人的六自由度控制。该方法包括步骤如下:
步骤S0,使用一个视觉传感器获取目标图像;
步骤S1:从所述视觉传感器获得的目标图像中选择视觉传感器敏感的至少三个点特征,离线得到所述点特征的期望图像坐标,在线提取所述点特征的当前图像坐标,比较当前值和期望值,得到当前点特征和期望点特征之间的图像偏差;
步骤S2:基于小孔模型,利用摄像机一次运动前后引起的点特征坐标变化,对点特征的当前深度值进行估计;
步骤S3:根据S1的点特征信息和S2的深度信息,得到点特征的雅克比矩阵;
步骤S4:基于S3的点特征雅克比矩阵,采用基于图像的视觉伺服控制方法,求取摄像机的平移量和旋转量;
步骤S5:基于S3的点特征雅克比矩阵,求取S4的旋转量产生的点特征坐标变化量;
步骤S6:根据S3的点特征雅克比矩阵,计算补偿S5的点特征坐标变化量所需要的平移量;
步骤S7:根据S4的平移量和S6的平移补偿量,得到摄像机的平移总量;
步骤S8:根据S4的旋转量和S7的平移总量,得到下一步的运动控制量,实现机器人的六自由度控制。
进一步说明,其中步骤S1中所述点特征的当前图像偏差是通过下式来计算的:
其中,△u、△v分别表示点特征在U方向和V方向的图像坐标偏差。(ud,vd)表示点特征的期望图像坐标,(u,v)表示点特征的当前图像坐标。
进一步说明,其中步骤S2中所述的点特征的当前深度值估计过程如下:
对于摄像机坐标系中的点(xc,yc,zc),焦距归一化成像平面上的成像点坐标为(x1c,y1c,1)。
将式(2)对时间求导数,改写为矩阵形式
摄像机的运动会导致点特征在摄像机坐标系中的运动。点特征在摄像机坐标系中的运动速度与摄像机在笛卡儿空间运动速度之间的关系为
式中:Xc=[xc,yc,zc]T是点特征的位置向量,vca=[vcax,vcay,vcaz]T是摄像机的线速度向量,ωca=[ωcax,ωcay,ωcaz]T是摄像机的角速度向量。
将式(5)代入式(3),合并同类项,并应用式(2),有
式(6)中,计算xc1和yc1时,涉及摄像机的内参数。zc的值是该点相对于摄像机坐标系的深度。因此,采用如上形式的任何控制方案必须估计或近似给出zc的值。
由式(6)可得
其中,zcpi是第i个点特征的zc坐标。
对式(7)化简,可得第i个点特征的当前深度值:
在利用式(8)估计点特征的深度时,需要用到摄像机运动前后的特征参数和相机运动量,因此在处理第一帧图像时,只提取特征参数,然后使机器人主动运动,在得到第二帧图像时,根据主动运动前后的特征参数和摄像机主动运动量,进行深度估计。
进一步说明,其中步骤S3中所述的点特征的雅克比矩阵计算如下:
将式(6)重写为
其中,Lp就是点特征的雅克比矩阵。
利用摄像机的内参数,可以求出图像点(u,v)在焦距归一化成像平面上的成像点坐标:
因此,根据式(8)估计点特征的当前深度,根据式(11)计算点特征的归一化坐标,将结果带入式(10)即可得到点特征的雅克比矩阵Lp。
进一步说明,其中步骤S4中所述的平移量和旋转量计算如下:
对于n个点特征,其特征变化量与摄像机运动量之间满足关系:
其中,Lpn是n个点特征的雅克比矩阵。
采用基于图像的控制律:
其中,λp是调整系数,(Δx1cn,Δy1cn)是第n个点特征在归一化平面坐标的期望值与当前值的差值。
分解式(13),得到摄像机的平移量vcap和旋转量wcap。
进一步说明,其中步骤S5中所述的点特征坐标变化量计算如下:
由式(6)可知,旋转运动引起的点特征的坐标变化如下:
其中,Lwn是点特征与旋转运动的雅克比矩阵,可由点特征的雅克比矩阵得到。
进一步说明,其中步骤S6中所述的平移补偿量如下:
由式(14)得到的旋转运动引起的n个点特征的坐标变化,计算出需要的平移补偿量为:
其中,vcaw是由旋转运动引起的平移补偿量。Lvn是点特征与平移运动的雅克比矩阵,可由点特征的雅克比矩阵得到。
进一步说明,其中步骤S7中所述的平移总量表示如下:
vca=vcap+vcaw (18)
进一步说明,其中步骤S8中所述的机器人运动调整量计算如下:
由式(13)和式(18),得到摄像机运动调整量:
根据式(19)和手眼关系矩阵Tm,得到机器人的运动调整量:
ΔT=TmΔTc (20)
基于上述技术方案可知,本发明具有以下有益效果:单目视觉场景中,难以获取目标的深度信息,点特征的使用受到制约。另外,由于视觉传感器的自身特性,相对于平移运动,点特征对旋转运动更加敏感,不恰当的旋转容易导致点特征在视野中丢失,导致伺服失败。
本发明针对仅使用点特征的单目视觉场景,基于点特征的雅克比矩阵,利用机器人的一次主动运动,对目标的深度信息进行估计,并通过平移运动补偿旋转运动引起的点特征坐标,将机器人的平移和旋转进行解耦,实现机器人的六自由度控制。
由此可见,本发明能够在单目视觉场景下,不需要繁琐的计算,仅利用相机的一次主动运动对目标的深度进行估计,摆脱了深度信息对基于点特征的视觉控制方法的制约,同时将平移运动和旋转运动进行了解耦,保证目标不在视野中丢失。本发明减少了求解深度信息的计算量,提高了视觉控制的成功率,能够进一步推广点特征在单目视觉场景的使用。
附图说明
图1为本发明的基于点特征的视觉控制方法的控制框图。
具体实施方式
下面结合附图对本发明的实施例作详细的说明:本实施例在以本发明技术方案为前提下进行实施,结合详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述实施例。
本发明公开了一种基于点特征的机器人视觉控制方法,该方法在深度估计的基础上,利用点特征的雅克比矩阵,将平移运动和旋转运动进行解耦,用平移运动来补偿旋转运动引起的点特征信息的变化,实现机器人的六自由度控制。
更具体地,作为本发明的一个优选实施例,如图1示出本发明的基于点特征的机器人视觉控制方法的框图。在控制过程中,从视觉图像得到当前点特征和期望点特征的图像偏差,在深度估计的基础上,得到点特征雅克比矩阵,进而得到当前的平移误差和旋转误差,然后用平移运动来补偿旋转运动引起的点特征信息的变化,实现机器人的六自由度控制。该方法包括以下步骤:
第一步:从目标图像中选择视觉传感器敏感的至少三个点特征,离线得到所述点特征的期望图像坐标,在线提取所述点特征的当前图像坐标,比较当前值和期望值,得到当前点特征和期望点特征之间的图像偏差;;
第二步:基于小孔模型,利用摄像机一次运动前后引起的点特征坐标变化,对点特征的当前深度值进行估计;
第三步:根据第一步的点特征信息和第二步的深度信息,得到点特征的雅克比矩阵;
第四步:基于第三步的点特征雅克比矩阵,采用基于图像的视觉伺服控制方法,求取摄像机的平移量和旋转量;
第五步:基于第三步的点特征雅克比矩阵,求取第四步的旋转量产生的点特征坐标变化量;
第六步:根据第三步的点特征雅克比矩阵,计算补偿第五步的点特征坐标变化量所需要的平移量;
第七步:根据第四步的平移量和第六步的平移补偿量,得到摄像机的平移总量;
第八步:根据第四步的旋转量和第七步的平移总量,得到下一步的运动控制量,实现机器人的六自由度控制。
所述第一步,具体如下:
根据视觉传感器获取的目标图像,提取至少三个点特征,得到式(1)所示的当前图像偏差如。
所述第二步,具体如下:
基于小孔模型,利用摄像机一次运动前后引起的点特征坐标变化,得到式(8)所示的点特征当前深度估计值。
所述第三步,具体如下:
根据第一步的点特征信息和第二步的深度信息,经过推导,得到式(10)所示的点特征的雅克比矩阵;
所述第四步,具体如下:
基于第三步的点特征雅克比矩阵,采用基于图像的视觉伺服控制方法,经过推导,求取式(13)所示的摄像机的平移量和旋转量;
所述第五步,具体如下:
基于第三步的点特征雅克比矩阵,经过推导,求取式(14)所示的第四步的旋转量产生的点特征坐标变化量;
所述第六步,具体如下:
根据第三步的点特征雅克比矩阵,经过推导,计算式(16)所示的补偿第五步的点特征坐标变化量所需要的平移量;
所述第七步,具体如下:
根据第四步的平移量和第六步的平移补偿量,经过推导,得到式(18)所示的摄像机的平移总量;
所述第八步,具体如下:
根据第四步的旋转量和第七步的平移总量,经过推导,得到式(20)所示的下一步的运动控制量,实现机器人的六自由度控制。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于点特征的机器人视觉控制方法,包括以下步骤:
步骤S0,使用一个视觉传感器获取目标图像;
步骤S1:从所述视觉传感器获得的目标图像中选择视觉敏感的三个点特征,离线得到所述点特征的期望图像坐标,在线提取所述点特征的当前图像坐标,比较当前值和期望值,得到当前点特征和期望点特征之间的图像偏差;
步骤S2:基于小孔模型,利用摄像机一次运动前后引起的点特征坐标变化,对点特征的当前深度值进行估计;
步骤S3:根据S1的点特征信息和S2的深度信息,得到点特征的雅克比矩阵;
步骤S4:基于S3的点特征雅克比矩阵,求取摄像机的平移量和旋转量;
步骤S5:基于S3的点特征雅克比矩阵,求取S4的旋转量产生的点特征坐标变化量;
步骤S6:根据S3的点特征雅克比矩阵,计算补偿S5的点特征坐标变化量所需要的平移量;
步骤S7:根据S4的平移量和S6的平移补偿量,得到摄像机的平移总量;
步骤S8:根据S4的旋转量和S7的平移总量,得到机器人的运动调整量,实现机器人的六自由度控制;
其中步骤S1中所述点特征的当前图像偏差是通过下式来计算的:
其中,△u、△v分别表示点特征在u方向和v方向的图像坐标偏差,(ud,vd)表示点特征的期望图像坐标,(u,v)表示点特征的当前图像坐标;
其中步骤S2中所述的点特征的当前深度值估计过程如下:
对于摄像机坐标系中的点(xc,yc,zc),焦距归一化成像平面上的成像点坐标为(x1c,y1c,1),
将式(2)对时间求导数,改写为矩阵形式
摄像机的运动会导致点特征在摄像机坐标系中的运动,点特征在摄像机坐标系中的运动速度与摄像机在笛卡儿空间运动速度之间的关系为
式中:Xc=[xc,yc,zc]T是点特征的位置向量,vca=[vcax,vcay,vcaz]T是摄像机的线速度向量,ωca=[ωcax,ωcay,ωcaz]T是摄像机的角速度向量;
将式(5)代入式(3),合并同类项,并应用式(2),有
式(6)中,计算x1c和y1c时,涉及摄像机的内参数;zc的值是该点相对于摄像机坐标系的深度;因此,采用如上形式的任何控制方案必须估计或近似给出zc的值;
由式(6)可得
其中,zcpi是第i个点特征的zc坐标;
对式(7)化简,可得第i个点特征的当前深度值:
在利用式(8)估计点特征的深度时,需要用到摄像机运动前后的特征参数和相机运动量,因此在处理第一帧图像时,只提取特征参数,然后使机器人主动运动,在得到第二帧图像时,根据主动运动前后的特征参数和摄像机主动运动量,进行深度估计;
其中步骤S3中所述的点特征的雅克比矩阵计算如下:
将式(6)重写为
其中,Lp就是点特征的雅克比矩阵;
利用摄像机的内参数,可以求出图像点(u,v)在焦距归一化成像平面上的成像点坐标:
因此,根据式(8)估计点特征的当前深度,根据式(11)计算点特征的归一化坐标,将结果带入式(10)即可得到点特征的雅克比矩阵Lp;
其中步骤S4中所述的平移量和旋转量计算如下:
对于n个点特征,其特征变化量与摄像机运动量之间满足关系:
其中,Lpn是n个点特征的雅克比矩阵,vca=[vcax,vcay,vcaz]T是摄像机的线速度向量,ωca=[ωcax,ωcay,ωcaz]T是摄像机的角速度向量;
采用基于图像的控制律:
其中,λp是调整系数,(Δx1cn,Δy1cn)是第n个点特征在归一化平面坐标的期望值与当前值的差值;
分解式(13),得到摄像机的平移量vcap和旋转量ωcap。
4.根据权利要求1所述的基于点特征的机器人视觉控制方法,其中步骤S7中所述的平移总量表示如下:
vca=vcap+vcaw (18)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810925292.8A CN108927807B (zh) | 2018-08-14 | 2018-08-14 | 一种基于点特征的机器人视觉控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810925292.8A CN108927807B (zh) | 2018-08-14 | 2018-08-14 | 一种基于点特征的机器人视觉控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108927807A CN108927807A (zh) | 2018-12-04 |
CN108927807B true CN108927807B (zh) | 2020-08-07 |
Family
ID=64445187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810925292.8A Active CN108927807B (zh) | 2018-08-14 | 2018-08-14 | 一种基于点特征的机器人视觉控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108927807B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109465829B (zh) * | 2018-12-12 | 2021-05-04 | 南京工程学院 | 一种基于转换矩阵误差模型的工业机器人几何参数辨识方法 |
CN113211433B (zh) * | 2021-04-21 | 2022-09-20 | 山东科技大学 | 一种基于复合特征的分离式视觉伺服控制方法 |
CN116197918B (zh) * | 2023-05-05 | 2023-07-21 | 北京华晟经世信息技术股份有限公司 | 基于动作记录分析的机械手控制系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105091744A (zh) * | 2015-05-07 | 2015-11-25 | 中国科学院自动化研究所 | 一种基于视觉传感器和激光测距仪的位姿检测装置与方法 |
CN105773609A (zh) * | 2016-03-16 | 2016-07-20 | 南京工业大学 | 一种基于视觉测量及距离误差模型的机器人运动学标定方法 |
CN106403924A (zh) * | 2016-08-24 | 2017-02-15 | 智能侠(北京)科技有限公司 | 基于深度摄像头的机器人快速定位与姿态估计方法 |
EP3284433A1 (en) * | 2016-08-16 | 2018-02-21 | Koh Young Technology Inc. | Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
CN107932514A (zh) * | 2017-12-15 | 2018-04-20 | 天津津航计算技术研究所 | 基于机器人视觉伺服控制的机载设备挂装方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103759716B (zh) * | 2014-01-14 | 2016-08-17 | 清华大学 | 基于机械臂末端单目视觉的动态目标位置和姿态测量方法 |
CN107218930B (zh) * | 2017-05-05 | 2020-01-03 | 山东大学 | 基于单目手眼系统的空间圆六维位置-姿态主动式测量方法 |
CN107175660B (zh) * | 2017-05-08 | 2019-11-29 | 同济大学 | 一种基于单目视觉的六自由度机器人运动学标定方法 |
CN107341814B (zh) * | 2017-06-14 | 2020-08-18 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
CN107907066B (zh) * | 2017-11-08 | 2019-08-02 | 武汉大学 | 单目六自由度形变监测系统及方法 |
-
2018
- 2018-08-14 CN CN201810925292.8A patent/CN108927807B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105091744A (zh) * | 2015-05-07 | 2015-11-25 | 中国科学院自动化研究所 | 一种基于视觉传感器和激光测距仪的位姿检测装置与方法 |
CN105773609A (zh) * | 2016-03-16 | 2016-07-20 | 南京工业大学 | 一种基于视觉测量及距离误差模型的机器人运动学标定方法 |
EP3284433A1 (en) * | 2016-08-16 | 2018-02-21 | Koh Young Technology Inc. | Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot |
CN106403924A (zh) * | 2016-08-24 | 2017-02-15 | 智能侠(北京)科技有限公司 | 基于深度摄像头的机器人快速定位与姿态估计方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
CN107932514A (zh) * | 2017-12-15 | 2018-04-20 | 天津津航计算技术研究所 | 基于机器人视觉伺服控制的机载设备挂装方法 |
Non-Patent Citations (1)
Title |
---|
六自由度机器人S型曲线速度规划;刘蕾等;《计算机技术与自动化》;20150615;第34卷(第2期);第42-45页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108927807A (zh) | 2018-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112985416B (zh) | 激光与视觉信息融合的鲁棒定位和建图方法及系统 | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN108927807B (zh) | 一种基于点特征的机器人视觉控制方法 | |
CN110116407B (zh) | 柔性机器人位姿测量方法及装置 | |
JP4814669B2 (ja) | 3次元座標取得装置 | |
JP6165745B2 (ja) | 車載搭載型のコンピュータ・ベース視覚システムの校正方法 | |
CN113311873B (zh) | 一种基于视觉的无人机伺服跟踪方法 | |
CN111161337B (zh) | 一种动态环境下的陪护机器人同步定位与构图方法 | |
WO2019161517A1 (zh) | 基于云端的轨迹地图生成方法、装置、设备及应用程序 | |
CN108645408B (zh) | 一种基于导航信息的无人机自主回收目标预测方法 | |
CN113503873A (zh) | 一种多传感器融合的视觉定位方法 | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
Kang et al. | Adaptive trajectory tracking of wheeled mobile robots based on a fish-eye camera | |
Mariottini et al. | Image-based visual servoing for nonholonomic mobile robots with central catadioptric camera | |
CN108731683B (zh) | 一种基于导航信息的无人机自主回收目标预测方法 | |
KR100773271B1 (ko) | 단일 카메라를 이용한 이동 로봇의 위치 측정 방법 | |
Lin et al. | Dsp based uncalibrated visual servoing for a 3-dof robot manipulator | |
CN114003041A (zh) | 一种多无人车协同探测系统 | |
CN109146957B (zh) | 一种基于三角形特征的机器人视觉控制方法 | |
López-Nicolás et al. | Parking with the essential matrix without short baseline degeneracies | |
Xiong et al. | 3D depth map based optimal motion control for wheeled mobile robot | |
Zhong et al. | Novel approach for mobile robot localization using monocular vision | |
Chen et al. | Visual servo tracking control of a wheeled mobile robot with a monocular fixed camera | |
Hu et al. | Daisy chaining based visual servo control part I: Adaptive quaternion-based tracking control | |
Hu et al. | Adaptive Visual Servo Control. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |