CN102773863A - 一种机器人精细遥操作方法 - Google Patents

一种机器人精细遥操作方法 Download PDF

Info

Publication number
CN102773863A
CN102773863A CN2012102694516A CN201210269451A CN102773863A CN 102773863 A CN102773863 A CN 102773863A CN 2012102694516 A CN2012102694516 A CN 2012102694516A CN 201210269451 A CN201210269451 A CN 201210269451A CN 102773863 A CN102773863 A CN 102773863A
Authority
CN
China
Prior art keywords
robot
cursor
virtual scene
scene
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012102694516A
Other languages
English (en)
Inventor
张平
杜广龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN2012102694516A priority Critical patent/CN102773863A/zh
Publication of CN102773863A publication Critical patent/CN102773863A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人精细遥操作方法,通过改进不同的工作场景之间的比例来提高遥操作界面的视觉性能和运动性能的方法。该方法旨在通过一个引入了两个扩展过程的界面将操作员的工作场景和机器人的工作场景连接起来。第一个是应用在人为操作和在计算机屏幕上可视的虚拟位置的机器人末端执行器之间产生的运动。第二个是机器人向上或向下的动作的变化。这些变化的规模应适应于感兴趣的对象,这些将根据要执行的任务及对象的大小和形状导致场景分辨率的变化。

Description

一种机器人精细遥操作方法
技术领域
本发明涉及人机交互技术领域,特别涉及一种机器人精细遥操作方法。 
背景技术
因为人类有自身固有的限制(如身体震颤)和知觉上的限制(主要是对距离和时间的感知),这些限制使得他们不能顺畅精确地执行某些任务。特别是在机器人遥操作方面,这些限制对人类控制机器人遥操作系统产生了一定的消极影响。一些研究已经解决了由这些限制所产生的机器人遥操作控制问题;而一些文献中定义的精神活动的模型表明,人类对选定对象的操纵效率取决于这个对象的大小和人类与选定对象间的距离,目前尚没有合适的方法提出。 
发明内容
本发明的发明目的是针对现有人机交互的技术不足,提供一种机器人精细遥操作方法。 
为实现上述发明目的,本发明采用的技术方案为: 
提供一种机器人精细遥操作方法,包括以下步骤:
S1、利用摄像机获取机器人末端执行器的运动视频,通过计算机建立虚拟场景与机器人末端执行器运动真实场景的映射模型;
S2、在虚拟场景中设定目标,并对该摄像机自动定焦进行控制;
S3、自适应修改比例因子。
优选地,所述步骤S1包括:设 
Figure 332058DEST_PATH_IMAGE001
为机器人末端在真实场景中的速度向量,
Figure 249199DEST_PATH_IMAGE002
为虚拟场景中光标的速度,两者之间的比例因子为s1,那么有: 
Figure 966619DEST_PATH_IMAGE003
(1);
另外,设
Figure 361828DEST_PATH_IMAGE004
为光标的位置,
Figure 366081DEST_PATH_IMAGE005
为虚拟场景中放大中心的位置,
Figure 188543DEST_PATH_IMAGE006
为机械手末端在真实场景中的位置,其中p为变换平面位置;设虚拟场景受比例因子s2控制,那么对于给定的虚拟场景中的光标位置
Figure 393260DEST_PATH_IMAGE004
,有:
Figure 592160DEST_PATH_IMAGE007
(2);
上述公式对时间t求导,则有s2关于虚拟场景中光标速度和机器人末端在真实场景中速度的关系:
Figure 447989DEST_PATH_IMAGE008
(3);
其中
Figure 441353DEST_PATH_IMAGE009
为平面扩展速度,
Figure 195682DEST_PATH_IMAGE010
为机器人末端执行器在真实环境中的速度;当扩展中心确定时,即
Figure 870377DEST_PATH_IMAGE011
,由于s2为关于距离
Figure 393763DEST_PATH_IMAGE012
的函数,上述公式派生为:
(4);
上述派生公式(4)表示光标靠近需要处理的区域加速放大快慢;该放大快慢强依赖于s2,而s2又强依赖于
Figure 252183DEST_PATH_IMAGE012
上述公式(4)写成真实场景中机器人末端执行器的速度与虚拟环境中光标的速度关系:
Figure 527307DEST_PATH_IMAGE014
(5)。
优选地,所述步骤S2包括以下步骤: 
在机器人遥操作中,修改用户计算机界面的可视化比例或改变操作者在工作场景的动作幅度都会对机器人执行任务的时间和精度产生直接的影响;变焦中心必须选择无论是目标与光标都可以保持在虚拟场景中;因此,将该变焦中心选择在需要处理区域,并将光标的位置固定在虚拟场景的中心,有:
Figure 170777DEST_PATH_IMAGE015
(6)
因此,根据上述公式,假设
Figure 443627DEST_PATH_IMAGE016
,有:
(7)
优选地,所述步骤S3包括以下步骤:
为了保证在真实场景运动的连续性,s1和s2在其工作范围应不断发展;s2的取值应保证目标与光标落在虚拟场景里面;换句话说,必须确保变焦效果既要保证光标在虚拟场景里面,又要保证目标在虚拟场景里面;根据这些,设距离r的投影距离R定义为:
Figure 172549DEST_PATH_IMAGE017
(8);
是在虚拟场景中的最大距离移动,以防止目标逃离视野;这个区域之外的光标和目标的可视度不再得到保证;
给定输入设备误差和任务误差
Figure 707938DEST_PATH_IMAGE020
,有:
Figure 596260DEST_PATH_IMAGE021
  (9);
通常,为了保证速度的连续性,并根据距离进行自适应的变换,定义s2函数为:
Figure 478765DEST_PATH_IMAGE022
(10);其中,
Figure 831249DEST_PATH_IMAGE023
Figure 963678DEST_PATH_IMAGE024
为常数。 
  
本发明相对于现有技术,具有以下有益效果:本发明可以减少操作时间、手部动作与需要的视觉注意力。满足本发明的应用条件的变化会在机器人执行任务的性能、精度和执行时间上有积极的影响。这种转换修改机器人末端执行器的速度,也提高性能。
与其他遥操作系统使用恒定的大比例转换或手动改变缩放因子相比,这些改编是基于一个改进的比例因子,在每一点上提供了最佳的精确速度折中。 
越来越多改进遥操作、补偿不精确的影响和提高效率的需求促进了这个研究。该方法被看作是一个有用的遥操作辅助方法,当机器人在已知环境中,机器人必须由操作者决定它的方向、速度和选择的对象。在这些情况下,由于其任务的复杂性,不能预先编程的任务有:缝合、操纵细胞与显微外科等。而在其他情况可以预先计划的情况下,一个自动化的过程会更有效。 
本发明人中,操作者朝着预期的目标移动机器人,是有助于引导机器人的运动方向和距离的措施,因此它可以提高工作效率。 
附图说明
图1为在真实场景和虚拟场景中连续的两个参考帧通过一个转换平面p相连的示意图。 
具体实施方式
下面结合附图和具体实施例对本发明的发明目的作进一步详细地描述,实施例不能在此一一赘述,但本发明的实施方式并不因此限定于以下实施例。除非特别说明,本发明采用的材料和加工方法为本技术领域常规材料和加工方法。 
提供一种机器人精细遥操作方法,包括以下步骤: 
S1、利用摄像机获取机器人末端执行器的运动视频,通过计算机建立虚拟场景VS与机器人末端执行器EE运动真实场景WS的映射模型;
S2、在虚拟场景VS中设定目标,并对该摄像机自动定焦进行控制;
S3、自适应修改比例因子。
所述步骤S1包括: 
虚拟场景VS中的动作受到比例因子s1的影响,假设
Figure 401612DEST_PATH_IMAGE001
为机器人末端EE在真实场景中的速度向量,
Figure 822229DEST_PATH_IMAGE002
为虚拟场景VS中光标的速度,那么有:
Figure 232482DEST_PATH_IMAGE003
(1);
在真实场景WS和虚拟场景VS中连续的两个参考帧中,是通过一个转换平面p相连,如图1所示。
其中
Figure 345931DEST_PATH_IMAGE004
为光标的位置,为虚拟场景VS中放大中心的位置,
Figure 682421DEST_PATH_IMAGE006
为机械手末端在真实场景WS中的位置。 
由于虚拟场景VS受s2控制,那么对于给定的虚拟场景VS中的光标位置
Figure 681601DEST_PATH_IMAGE004
,有: 
(2);
其中p为变换平面位置,上述公式对时间t求导,则有s2关于虚拟场景VS中光标速度和机器人末端在真实场景中速度的关系:
Figure 378478DEST_PATH_IMAGE008
(3);
其中
Figure 593428DEST_PATH_IMAGE009
为平面扩展速度,
Figure 775011DEST_PATH_IMAGE010
为机器人末端EE在真实场景WS中的速度。当扩展中心确定时,即
Figure 964683DEST_PATH_IMAGE011
,由于s2为关于距离
Figure 802189DEST_PATH_IMAGE012
的函数,上述公式可以写成:
Figure 368300DEST_PATH_IMAGE013
(4);
上述派生公式(4)表示光标靠近需要处理区域加速放大快慢。该放大快慢强依赖于s2,而s2又强依赖于
Figure 669968DEST_PATH_IMAGE012
上述公式可以写成真实场景WS中机器人末端EE速度关于虚拟场景VS中光标的速度关系: 
Figure 217493DEST_PATH_IMAGE014
(5)。
所述步骤S2包括: 
在本步骤中,通过放大、平移虚拟场景或光标移动去确定机器人末端执行器的位置,可以通过遥控操作杆使得光标在屏幕上进行平移和旋转。
然而,人为操作导航时,使用OID通过摄像机变焦自动修改时会出现两个问题:变焦加速效果,即较慢的动作出现加速的效果;另外,如前面提到,全视野的损失产生的放大效应,这限制了可见区域内的真实场景WS。 
在操作者朝着预期的目标移动机器人,操作者应能够操作舒适,并避免需要执行光标大动作,或有重复纠正行动,直到目标达成。而上述两个自动变焦的影响,必须得到补偿。 
而为了使目标和光标在虚拟场景VS中可见,因此,除了补偿变焦加速效果外,缩放与平移策略连同光标移动必须考虑。由于机器人末端执行器EE的运动需要保持速度的连续性且避免突变,即变焦的效果;平移或光标移动不应该引起机器人运动的突然变化。 
为了满足这些要求,变焦中心必须选择至无论是目标与光标都可以保持在虚拟场景中。因此,将该变焦中心选择在需要处理区域, 在确保光标与机器人末端保持恒定距离的前提下才可修改比例因子;首先,将光标的位置固定在虚拟场景的中心,有: 
 (6)
因此,根据上述公式,假设
Figure 974414DEST_PATH_IMAGE016
,有:
Figure 802692DEST_PATH_IMAGE025
(7)。
所述步骤S3包括: 
为了保证在真实场景运动的连续性,S1和S2在其工作范围应不断发展。值S2的也应保证目标位置光标应该落在虚拟场景里面。换句话说,必须确保变焦效果既要保证光标在虚拟场景VS里面,又要保证目标在虚拟场景VS里面。根据这些考虑,距离r的投影距离R定义为:
Figure 599747DEST_PATH_IMAGE017
(8);
Figure 208583DEST_PATH_IMAGE018
是在虚拟场景中的最大距离移动,以防止目标逃离视野。这个区域之外,同时光标的可视度和目标可以不再得到保证。
给定输入设备误差
Figure 896174DEST_PATH_IMAGE019
和任务误差
Figure 906856DEST_PATH_IMAGE020
,有: 
Figure 874812DEST_PATH_IMAGE021
 (9);
通常,为了保证速度的连续性,并根据距离进行自适应的变换,可以定义s2函数为:
(10);
其中,
Figure 485419DEST_PATH_IMAGE024
为常数。 
本发明提出了一种通过改进不同的工作场景之间的比例来提高遥操作界面的视觉性能和运动性能的方法。该方法旨在通过一个引入了两个扩展过程的界面将操作员的工作场景和机器人的工作场景连接起来。第一个是应用在人为操作和在计算机屏幕上可视的虚拟位置的机器人末端执行器之间产生的运动。第二个是机器人向上或向下的动作的变化。这些变化的规模应适应于感兴趣的对象,这些将根据要执行的任务及对象的大小和形状导致场景分辨率的变化。 
上述实施例仅为本发明的较佳实施例,并非用来限定本发明的实施范围。即凡依本发明内容所作的均等变化与修饰,都为本发明权利要求所要求保护的范围所涵盖。 

Claims (3)

1.一种机器人精细遥操作方法,其特征在于包括以下步骤:
S1、利用摄像机获取机器人末端执行器的运动视频,通过计算机建立虚拟场景与机器人末端执行器运动真实场景的映射模型;
S2、在虚拟场景中设定目标,并对该摄像机自动定焦进行控制;
S3、自适应修改比例因子。
2.根据权利要求1所述的机器人精细遥操作方法,其特征在于:
所述步骤S1包括:设 
Figure 2012102694516100001DEST_PATH_IMAGE002
为机器人末端在真实场景中的速度向量,
Figure 2012102694516100001DEST_PATH_IMAGE004
为虚拟场景中光标的速度,两者之间的比例因子为s1,那么有:
Figure 2012102694516100001DEST_PATH_IMAGE006
(1);
另外,设为光标的位置,
Figure DEST_PATH_IMAGE010
为虚拟场景中放大中心的位置,
Figure DEST_PATH_IMAGE012
为机械手末端在真实场景中的位置,其中p为变换平面位置;设虚拟场景受比例因子s2控制,那么对于给定的虚拟场景中的光标位置
Figure 977502DEST_PATH_IMAGE008
,有:
Figure DEST_PATH_IMAGE014
(2);
上述公式对时间t求导,则有s2关于虚拟场景中光标速度和机器人末端在真实场景中速度的关系:
Figure DEST_PATH_IMAGE016
(3);
其中为平面扩展速度,
Figure DEST_PATH_IMAGE020
为机器人末端执行器在真实环境中的速度;当扩展中心确定时,即
Figure DEST_PATH_IMAGE022
,由于s2为关于距离
Figure DEST_PATH_IMAGE024
的函数,上述公式派生为:
Figure DEST_PATH_IMAGE026
(4);
上述派生公式(4)表示光标靠近感兴趣区域是加速放大快慢;该放大快慢强依赖于s2,而s2又强依赖于
Figure 944933DEST_PATH_IMAGE024
上述公式(4)写成真实场景中机器人末端执行器的速度与虚拟环境中光标的速度关系:
Figure DEST_PATH_IMAGE028
(5)。
3.根据权利要求1所述的机器人精细遥操作方法,其特征在于,所述步骤S2包括以下步骤:
在机器人遥操作中,修改用户计算机界面的可视化比例或改变操作者在工作场景的动作幅度都会对机器人执行任务的时间和精度产生直接的影响;变焦中心必须选择无论是目标与光标都可以保持在虚拟场景中;因此,将该变焦中心选择在需要处理区域,并将光标的位置固定在虚拟场景的中心,有:
Figure DEST_PATH_IMAGE030
(6)
因此,根据上述公式,假设
Figure DEST_PATH_IMAGE032
,有:
Figure DEST_PATH_IMAGE034
(7)
根据权利要求1所述的机器人精细遥操作方法,其特征在于,所述步骤S3包括以下步骤:
为了保证在真实场景运动的连续性,s1和s2在其工作范围应不断发展;s2的取值应保证目标与光标落在虚拟场景里面;换句话说,必须确保变焦效果既要保证光标在虚拟场景里面,又要保证目标在虚拟场景里面;根据这些,设距离r的投影距离R定义为:
Figure DEST_PATH_IMAGE036
(8);
Figure DEST_PATH_IMAGE038
是在虚拟场景中的最大距离移动,以防止目标逃离视野;这个区域之外的光标和目标的可视度不再得到保证;
给定输入设备误差
Figure DEST_PATH_IMAGE040
和任务误差
Figure DEST_PATH_IMAGE042
,有:
Figure DEST_PATH_IMAGE044
  (9);
通常,为了保证速度的连续性,并根据距离进行自适应的变换,定义s2函数为:
Figure DEST_PATH_IMAGE046
(10);其中,
Figure DEST_PATH_IMAGE048
Figure DEST_PATH_IMAGE050
为常数。
CN2012102694516A 2012-07-31 2012-07-31 一种机器人精细遥操作方法 Pending CN102773863A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012102694516A CN102773863A (zh) 2012-07-31 2012-07-31 一种机器人精细遥操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012102694516A CN102773863A (zh) 2012-07-31 2012-07-31 一种机器人精细遥操作方法

Publications (1)

Publication Number Publication Date
CN102773863A true CN102773863A (zh) 2012-11-14

Family

ID=47119079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012102694516A Pending CN102773863A (zh) 2012-07-31 2012-07-31 一种机器人精细遥操作方法

Country Status (1)

Country Link
CN (1) CN102773863A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809439A (zh) * 2014-01-10 2014-05-21 西北工业大学 一种适用于遥操作系统控制参数的递阶辨识方法
CN108393907A (zh) * 2018-05-22 2018-08-14 蒋再男 基于位置跟踪器的机械臂遥操作运动映射方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
CN102222157A (zh) * 2011-04-28 2011-10-19 华南理工大学 一种基于人工势场法的动态预警域生成方法
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
CN102222157A (zh) * 2011-04-28 2011-10-19 华南理工大学 一种基于人工势场法的动态预警域生成方法
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LUIS M. MUNOZ ET AL: "Improving the Human–Robot Interface Through Adaptive Multispace Transformation", 《IEEE》 *
MORIKAWA,H.ET AL: "Ground experiment system for space robots based on predictive bilateral control", 《IEEE》 *
王世华等: "基于Internet的实时遥操作移动机器人系统", 《华南理工大学学报(自然科学版)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809439A (zh) * 2014-01-10 2014-05-21 西北工业大学 一种适用于遥操作系统控制参数的递阶辨识方法
CN103809439B (zh) * 2014-01-10 2016-04-06 西北工业大学 一种适用于遥操作系统控制参数的递阶辨识方法
CN108393907A (zh) * 2018-05-22 2018-08-14 蒋再男 基于位置跟踪器的机械臂遥操作运动映射方法

Similar Documents

Publication Publication Date Title
CN109159151B (zh) 一种机械臂空间轨迹跟踪动态补偿方法和系统
CN110039542B (zh) 具有速度方向控制的视觉伺服跟踪控制方法及机器人系统
CN111660306B (zh) 一种基于操作者舒适度的机器人可变导纳控制方法及系统
CN110825076B (zh) 基于视线和力反馈的移动机器人编队导航半自主控制方法
CN100591490C (zh) 机器人程序设计装置
JP2015182213A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
CN108600620B (zh) 一种基于电液可调焦镜头的移动机器人的目标跟踪方法
CN101152719A (zh) 机器人控制装置
WO2021139373A1 (zh) 一种机械臂混杂控制方法、装置及系统
CN112975938B (zh) 一种基于零空间的机械臂速度层轨迹规划方法
CN105382841A (zh) 一种基于双通道通讯的遥操作双边控制方法
CN102773863A (zh) 一种机器人精细遥操作方法
CN107422739A (zh) 一种空间机器人基座姿态的鲁棒控制方法
US10362277B2 (en) Following apparatus and following system
CN107553485B (zh) 一种人机交互过程中动态虚拟夹具的生成方法
Wang et al. Design of stable visual servoing under sensor and actuator constraints via a Lyapunov-based approach
JP2020131314A (ja) ロボットの制御装置およびロボットの制御方法
CN108724195A (zh) 一种针对机器人的耦合前馈控制方法
CN116494250A (zh) 基于速度补偿的机械臂控制方法、控制器、介质及系统
JP2020510455A5 (zh)
KR101263487B1 (ko) 로봇의 교시 장치
CN103645805A (zh) 体感方式的控件操控方法及系统
CN115107035B (zh) 一种机器人单关节人工免疫系统监控的混合控制方法
Cremer et al. Robotic waiter with physical co-manipulation capabilities
CN102385386A (zh) 一种水火弯板智能机器人路径规划方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20121114