CN103105851B - 一种遥操纵机器人基于视觉的动觉示教控制方法 - Google Patents
一种遥操纵机器人基于视觉的动觉示教控制方法 Download PDFInfo
- Publication number
- CN103105851B CN103105851B CN201310011735.XA CN201310011735A CN103105851B CN 103105851 B CN103105851 B CN 103105851B CN 201310011735 A CN201310011735 A CN 201310011735A CN 103105851 B CN103105851 B CN 103105851B
- Authority
- CN
- China
- Prior art keywords
- robot
- teaching
- virtual
- barrier
- manipulating object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Manipulator (AREA)
Abstract
本发明提供一种遥操作机器人基于视觉的动觉示教控制方法,其步骤包括采用立体视觉技术对现场的作业对象及背景环境(障碍物)进行识别与空间信息提取;以通过视觉识别、计算出的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;以机器人末端沿其速度方向与背景环境(障碍物)的距离为参数,构建机器人所受的障碍物排斥力;将作业对象虚拟吸引力、障碍物虚拟斥力以及机器人抓取物体时的真实作用力合成机器人示教力;通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。本发明可有效提高主从机器人系统的智能性、安全性与易操控性。
Description
技术领域
本发明属于机器人人机交互领域,特别涉及一种遥操纵机器人基于视觉的动觉示教控制方法。
背景技术
随着人类对海底、地下资源和宇宙空间的合理开发和利用,机器人对于高温、高压、强辐射等极限环境下作业任务的完成发挥了愈来愈重要的作用。机器人正朝着智能化的方向发展。然而,由于受控制、传感及人工智能等发展水平的制约,要研制出在变化环境下的全自主机器人是短期内难以达到的目标。机器人遥操纵技术将人的智慧参与到机器人的实时控制中,极大提高了复杂环境下机器人作业的适应性。因此,机器人的局部自主融入操作者的高级决策能力是目前遥操纵领域的发展趋势。
在主从机器人的控制过程中,操作者由于与机器人相距较远而无法亲身感知作业现场的真实环境,只能依据现场反馈的图像、声音、力/触觉等信息来完成作业任务。主从机器人控制领域仍有许多问题有待解决:首先,机器人作业任务完成的成功与否以及效率高低,过多的依赖于操作人员的技能水平和熟练程度;其次,现场反馈的视频图像信息在远距离传输中不可避免的存在较大时滞,而传统的“移动-等待”策略无疑大大降低了机器人的作业效率;同时,操作者由于无法直接感知图像中的景深信息,也就难以精确把握机器人与作业对象的距离远近,势必导致机器人操控效率低下。
再者,现有的主从机器人双向伺服控制策略几乎无一例外地强调“作业反力”的“再现与感知”,力反馈效果产生的前提是机器人已经与作业环境接触。这在某些诸如高速、重载等应用场合,机器人对作业环境的瞬间冲击,很可能在操作人员感知现场作业反力之前便已造成无法弥补的损失。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出一种全新的遥操纵机器人基于视觉的动觉示教控制方法。为达上述目的,本发明采用如下的技术方案:
一种遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,包括以下步骤:
S1、采用立体视觉技术对现场的作业对象及背景环境(障碍物)进行识别与空间信息提取;
S2、以步骤S1中获取的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;
S3、以步骤S1中获取的机器人末端沿其速度方向与背景环境(障碍物)的距离为参数,构建机器人所受的障碍物排斥力;
S4、将作业对象虚拟吸引力、障碍物虚拟斥力以及机器人抓取物体时的真实作用力合成机器人示教力;
S5、通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。
根据权利要求1所述的遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,所述步骤S1包括:包括以下步骤:
S11.1、将Bumblebee双目摄像头采用eye-to-hand方式固定在现场环境正上方,光轴与地面垂直,简称为环境相机;
S11.2、根据环境相机图像中各像素点的颜色、灰度或纹理特征,从中剔除机器人区域及作业对象区域,以获得背景图像;
S11.3、根据图像匹配及摄像机标定的结果,实时计算背景图像中各像素点的空间坐标;
S11.4、采用基于空间自相关性的内插方式来预测估计所剔除的机器人区域及作业对象区域应有像素属性,并结合背景图像像素特征,生成背景环境的高程数据模型;
S12.1、将Kinect相机采用eye-in-hand方式固连于机器人末端,简称为手部相机;
S12.2、根据手部相机图像中各像素点的颜色、纹理特征,采用结合人口统计与区域增长的图像分割方法来提取作业对象区域,并采用分裂-合并算法提取该区域轮廓的近似多边形,取多边形的顶点为作业对象图像特征;
S12.3、根据图像匹配及摄像机标定的结果,实时计算作业对象区域各像素点的空间坐标,并构建其OBB(Oriented Bounding Box-有向包围盒)包围盒模型。
上述的遥操纵机器人基于视觉的动觉示教控制方法,所述步骤S2包括:设机器人处于由作业对象和障碍物构成的虚拟势场V中,根据Khatib的人工势场法原理,沿着势场负梯度方向的虚拟力可保证机器人的运动收敛于系统的低势能点,由此构建作业对象引力FG为:
FG=-(γ0-γ)。
其中γ0为机器人末端的当前位姿向量,γ为机器人末端的期望位姿向量。
上述的遥操纵机器人基于视觉的动觉示教控制方法,所述步骤S3包括:基于与步骤S2同样的理论,构建障碍物虚拟斥力FO为:
其中,ρ为机器人末端与障碍物间的距离;ρ0为设定的机器人末端与障碍物的安全距离;η为常数;V为机器人末端运动速度的单位向量。
上述的遥操纵机器人基于视觉的动觉示教控制方法,所述步骤S4包括:本着安全性第一、效率第二的原则,选择合理的加权系数,或根据机器人末端与作业对象及障碍物的相对位姿关系,通过时变的加权方式,将步骤S2的作业对象虚拟引力、步骤S3中的障碍物虚拟斥力以及通过传感器检测得到的机器人抓取物体时的真实作用力FE进行合成:
Fm=αFG+βFO+FE
其中,α、β分别为虚拟引力、虚拟斥力的影响系数。
上述的遥操纵机器人基于视觉的动觉示教控制方法所述步骤S5包括:通过主端系统与从端系统间的雅可比矩阵,将步骤S4中的示教力向手控器反馈。动觉引导在宏观上表现为手控器产生的对人手“推拽”和“示教”的运动趋势,可通过虚拟引导力作用下的位置预测控制,来实现手控器的运动觉提示效果。
本发明相对于现有技术具有如下的优点及技术效果:
1.将机器智能与人类高级决策的优点有机集成,可有效提高机器人的作业效率与局部自主。
2.降低对操作人员熟练程度的要求。
3.对可能发生的机器人与环境间的碰撞进行预测,可有效保证机器人作业系统的安全性。
4.能够缓解操作者控制机器人时的心理紧张及决策疲劳。
5.控制回路具有数据量小、信息丰富、超前预测的优点,可有效避免图像时滞导致的机器人操控盲目性。
附图说明
图1为控制系统流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此实施例,图1给出的是系统流程图。
本根据遥操纵机器人基于视觉的动觉示教控制方法,包括如下步骤:
S1、采用立体视觉技术对现场的作业对象及背景环境(障碍物)进行识别与空间信息提取;
S2、以步骤S1中获取的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;
S3、以步骤S1中获取的机器人末端沿其速度方向与背景环境(障碍物)的距离为参数,构建机器人所受的障碍物排斥力;
S4、将作业对象虚拟吸引力、障碍物虚拟排斥力以及机器人抓取物体时的真实作用力合成机器人示教力;
S5、通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。
所述步骤S1包括以下步骤:
S11.1、将Bumblebee双目摄像头作为环境相机采用eye-to-hand方式固定在现场环境正上方,保证其光轴与地面垂直;
S11.2、根据环境相机获取的图像中各像素点的颜色或灰度特征,采用局部动态阈值的方法,实现前景和背景的二值化分割;
S11.3、根据环境相机标定的结果,通过基于空间自相关性的内插方式实时计算背景地形图像中各像素点的空间坐标,并生成3D点云;
S11.4、以半径为r0的球顺次遍历背景地形的3D点云,若包含于球域内的像素个数小于一预设的常数k0,则将该点视为孤立的误匹配点,从点云中予以剔除;
S11.5、采用Delauna三角网格算法对将采样后的3D点云进行处理,以实现背景地形的三维建模;
S12.1、将Kinect相机作为手部相机,采用eye-in-hand方式固连于机器人末端;
S12.2、根据手部相机图像中各像素点的颜色、纹理特征,采用结合人口统计与区域增长的图像分割方法来提取作业对象区域,对图像中各个物体进行标号,移除面积小于100个像素的物体,并采用分裂-合并算法提取作业对象的区域轮廓,取多边形的顶点为作业对象图像特征;
S12.3、根据图像匹配及摄像机标定的结果,实时计算作业对象区域各像素点的空间坐标,并构建其OBB(Oriented Bounding Box——有向包围盒)包围盒模型。
所述步骤S2包括以下步骤
S21、设机器人处于由作业队象和障碍物构成的虚拟势场V中,根据Khatib的人工势场法原理,沿着势场负梯度方向的虚拟力可保证机器人的运动收敛于系统的低势能点,其中γ0为机器人末端的当前位姿向量,γ为机器人末端的期望位姿向量。由此构建作业对象引力FG为:
FG=-(γ0-γ);
所述步骤S3包括以下步骤:
S31、基于与步骤S2同样的理论,构建障碍物虚拟斥力FO为:
其中,ρ为机器人末端与障碍物间的实时距离;ρ0为设定的机器人末端与障碍物的安全距离;η为常数;V为机器人末端运动速度的单位向量。
所述步骤S4包括以下步骤:
S41、本着安全性第一、效率第二的原则,选择合理的加权系数,或根据机器人末端与作业对象及障碍物的相对位姿关系,通过时变的加权方式,将步骤S2的作业对象虚拟引力、步骤S3中的障碍物虚拟斥力以及通过传感器检测得到的机器人抓取物体时的真实作用力FE进行合成:
Fm=αFG+βFO+FE
其中,α、β分别为虚拟引力、虚拟斥力的影响系数。
所述步骤S5包括以下步骤:
S51、通过主端系统与从端系统间的雅可比矩阵,将步骤S4中的示教力向手控器反馈。动觉引导在宏观上表现为手控器产生的对人手“推拽”和“示教”的运动趋势,可通过虚拟引导力作用下的位置预测控制,来实现手控器的运动觉提示效果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,奇特的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.一种遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,包括如下步骤:
S1、采用立体视觉技术对现场的作业对象及背景环境即障碍物进行识别与空间信息提取;
S2、以步骤S1中获取的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟引力FG;
S3、以步骤S1中获取的机器人末端沿其速度方向与背景环境即障碍物的距离为参数,构建机器人所受的障碍物虚拟斥力FO;
S4、将作业对象虚拟引力FG、障碍物虚拟斥力FO以及机器人抓取物体时的真实作用力FE合成机器人示教力Fm;
S5、通过主端系统与从端系统间的雅可比矩阵,将示教力Fm向操作手柄反馈,从而实现对操作者的动觉示教;通过主端系统与从端系统间的雅可比矩阵,将步骤S4中的示教力Fm向手控器反馈,动觉引导在宏观上表现为手控器产生的对人手“推拽”和“示教”的运动趋势,可通过虚拟引导力作用下的位置预测控制,来实现手控器的运动觉和力觉提示效果。
2.根据权利要求1所述的遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,所述步骤S1包括:包括以下步骤:
S11.1、将Bumblebee双目摄像头采用eye-to-hand方式固定在现场环境正上方,光轴与地面垂直,简称为环境相机;
S11.2、根据环境相机图像中各像素点的颜色、灰度或纹理特征,从中剔除机器人区域及作业对象区域,以获得背景图像;
S11.3、根据图像匹配及摄像机标定的结果,实时计算背景图像中各像素点的空间坐标;
S11.4、采用基于空间自相关性的内插方式来预测估计所剔除的机器人区域及作业对象区域应有像素属性,并结合背景图像像素特征,生成背景环境的高程数据模型;
S12.1、将Kinect相机采用eye-in-hand方式固连于机器人末端,简称为手部相机;
S12.2、根据手部相机图像中各像素点的颜色、纹理特征,采用结合人口统计与区域增长的图像分割方法来提取作业对象区域,并采用分裂—合并算法提取该区域轮廓的近似多边形,取多边形的顶点为作业对象图像特征;
S12.3、根据图像匹配及摄像机标定的结果,实时计算作业对象区域各像素点的空间坐标,并构建其OBB(Oriented Bounding Box—有向包围盒)包围盒模型。
3.根据权利要求1所述的遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,所述步骤S2包括:设机器人处于由作业对象和障碍物构成的虚拟势场中,根据Khatib的人工势场法原理,沿着势场负梯度方向的虚拟力可保证机器人的运动收敛于系统的低势能点,由此构建作业对象虚拟引力FG为:
FG=-(γ0-γ)
其中γ0为机器人末端的当前位姿向量,γ为机器人末端的期望位姿向量。
4.根据权利要求3所述的遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,所述步骤S3包括:基于与步骤S2同样的理论,构建障碍物虚拟斥力FO为:
其中,ρ为机器人末端与障碍物间的距离;ρ0为设定的机器人末端与障碍物的安全距离;η为常数;V为机器人末端运动速度的单位向量。
5.根据权利要求1所述的遥操纵机器人基于视觉的动觉示教控制方法,其特征在于,所述步骤S4包括:本着安全性第一、效率第二的原则,选择合理的加权系数,或根据机器人末端与作业对象及障碍物的相对位姿关系,通过时变的加权方式,将步骤S2的作业对象虚拟引力FG、步骤S3中的障碍物虚拟斥力FO以及通过传感器检测得到的机器人抓取物体时的真实作用力FE合成机器人示教力Fm:
Fm=αFG+βFO+FE
其中,α、β分别为虚拟引力、虚拟斥力的影响系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310011735.XA CN103105851B (zh) | 2012-11-07 | 2013-01-12 | 一种遥操纵机器人基于视觉的动觉示教控制方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210441837.0 | 2012-11-07 | ||
CN201210441837 | 2012-11-07 | ||
CN2012104418370 | 2012-11-07 | ||
CN201310011735.XA CN103105851B (zh) | 2012-11-07 | 2013-01-12 | 一种遥操纵机器人基于视觉的动觉示教控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103105851A CN103105851A (zh) | 2013-05-15 |
CN103105851B true CN103105851B (zh) | 2015-03-11 |
Family
ID=48313788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310011735.XA Expired - Fee Related CN103105851B (zh) | 2012-11-07 | 2013-01-12 | 一种遥操纵机器人基于视觉的动觉示教控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103105851B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103991077B (zh) * | 2014-02-19 | 2015-12-09 | 吉林大学 | 一种基于力融合的机器人手控器共享控制方法 |
CN105150210B (zh) * | 2015-05-13 | 2017-05-24 | 西北工业大学 | 一种用于遥操作人机交互的虚拟管道动态避障控制方法 |
CN106997201B (zh) * | 2016-01-25 | 2020-11-03 | 上海电气集团股份有限公司 | 多机器人协作的路径规划方法 |
CN107817796B (zh) * | 2017-10-25 | 2020-02-07 | 上海思岚科技有限公司 | 移动机器人贴障碍物运动的方法和设备 |
CN109101985A (zh) * | 2018-06-03 | 2018-12-28 | 东南大学 | 一种基于自适应邻域测试的图像误匹配点对剔除方法 |
CN109333497B (zh) * | 2018-11-30 | 2021-11-19 | 西华大学 | 一种带虚拟约束力的遥操作系统控制方法 |
CN110132255B (zh) * | 2019-04-10 | 2021-06-18 | 北京拓疆者智能科技有限公司 | 控制方法、装置、显示终端、机械设备及人机交互系统 |
CN111571582B (zh) * | 2020-04-02 | 2023-02-28 | 上海钧控机器人有限公司 | 一种艾灸机器人人机安全监控系统及监控方法 |
CN114089733B (zh) * | 2020-08-25 | 2023-08-29 | 同方威视技术股份有限公司 | 导向控制方法、装置、安检车辆、介质和程序产品 |
CN113386142A (zh) * | 2021-07-07 | 2021-09-14 | 天津大学 | 基于虚拟夹具的遥操作机器人磨切一体加工系统与方法 |
CN113842217B (zh) * | 2021-09-03 | 2022-07-01 | 北京长木谷医疗科技有限公司 | 机器人运动区域的限定方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359229A (zh) * | 2008-08-18 | 2009-02-04 | 浙江大学 | 一种基于障碍物运动预测的移动机器人避障方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8116910B2 (en) * | 2007-08-23 | 2012-02-14 | Intouch Technologies, Inc. | Telepresence robot with a printer |
-
2013
- 2013-01-12 CN CN201310011735.XA patent/CN103105851B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359229A (zh) * | 2008-08-18 | 2009-02-04 | 浙江大学 | 一种基于障碍物运动预测的移动机器人避障方法 |
Non-Patent Citations (4)
Title |
---|
"Image Based Real-Time 3D Reconstruction for Teleoperation System";Tao Ni 等;《2010 International Conference on Computer, Mechatronics, Control and Electronic Engineering》;20101231;全文 * |
"Teleoperation System With Virtual Reality Based On Stereo Vision";Tao Ni 等;《2011 International Conference on Transportation, Mechanical, and Electrical Engineering》;20111218;摘要,第494页右栏-497页左栏,图1 * |
"基于Stewart平台的6自由度力反馈手控器";邓乐 等;《农业机械学报》;20050731;第36卷(第7期);全文 * |
李滋堤 等."基于人工势场的空间遥操作共享控制".《清华大学学报(自然科学版)》.2010,第50卷(第10期), * |
Also Published As
Publication number | Publication date |
---|---|
CN103105851A (zh) | 2013-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103105851B (zh) | 一种遥操纵机器人基于视觉的动觉示教控制方法 | |
CN103049912B (zh) | 一种基于任意三面体的雷达-相机系统外部参数标定方法 | |
CN106575438B (zh) | 立体和结构光处理的组合 | |
CN205905026U (zh) | 一种基于双目立体视觉的机器人系统 | |
CN106020201A (zh) | 移动机器人3d导航定位系统及导航定位方法 | |
CN111151463B (zh) | 一种基于3d视觉的机械臂分拣抓取系统及方法 | |
CN107491071B (zh) | 一种智能多机器人协同测图系统及其方法 | |
KR102597216B1 (ko) | 공항용 안내 로봇 및 그의 동작 방법 | |
CN103991077B (zh) | 一种基于力融合的机器人手控器共享控制方法 | |
CN110497405B (zh) | 用于驱控一体化控制系统的力反馈人机协作防碰撞检测方法及模块 | |
CN110488805A (zh) | 一种基于3d立体视觉的无人车避障系统及方法 | |
CN103743394A (zh) | 一种基于光流的移动机器人避障方法 | |
CN111258311A (zh) | 一种基于智能视觉的井下移动机器人避障方法 | |
CN113031597A (zh) | 一种基于深度学习和立体视觉的自主避障方法 | |
Liau et al. | Non-metric navigation for mobile robot using optical flow | |
Jiang et al. | 3-d scene flow estimation on pseudo-lidar: Bridging the gap on estimating point motion | |
Grehl et al. | Towards virtualization of underground mines using mobile robots–from 3D scans to virtual mines | |
Mehtab et al. | 3D vehicle detection using cheap LiDAR and camera sensors | |
CN204937488U (zh) | 一种ar增强现实3d视觉智能四翼飞行器 | |
Kao et al. | Moving object segmentation using depth and optical flow in car driving sequences | |
CN109933092B (zh) | 飞行器避障方法、装置、可读存储介质和飞行器 | |
Okura et al. | Free-viewpoint mobile robot teleoperation interface using view-dependent geometry and texture | |
Zhang et al. | Virtual reality aided high-quality 3D reconstruction by remote drones | |
CN109917670A (zh) | 一种智能机器人集群的同时定位与建图方法 | |
Wang et al. | A novel human-robot interaction system based on 3D mapping and virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150311 Termination date: 20160112 |
|
CF01 | Termination of patent right due to non-payment of annual fee |