CN101434066B - 机器人遥操作预测方法和遥操作预测平台 - Google Patents

机器人遥操作预测方法和遥操作预测平台 Download PDF

Info

Publication number
CN101434066B
CN101434066B CN2008102245597A CN200810224559A CN101434066B CN 101434066 B CN101434066 B CN 101434066B CN 2008102245597 A CN2008102245597 A CN 2008102245597A CN 200810224559 A CN200810224559 A CN 200810224559A CN 101434066 B CN101434066 B CN 101434066B
Authority
CN
China
Prior art keywords
robot
average
angle
data
time graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2008102245597A
Other languages
English (en)
Other versions
CN101434066A (zh
Inventor
黄强
卢月品
徐乾
李敏
李科杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN2008102245597A priority Critical patent/CN101434066B/zh
Publication of CN101434066A publication Critical patent/CN101434066A/zh
Application granted granted Critical
Publication of CN101434066B publication Critical patent/CN101434066B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

本发明实施例提供了一种机器人遥操作预测方法和遥操作预测平台,属于机器人领域。所述方法包括:接收机器人的反馈数据;利用所述反馈数据标定所述机器人的预测模型。所述遥操作预测平台包括:接收模块和标定模块。本发明实施例通过将机器人的关节角数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角数据分别取均值,位姿数据分别取均值,得到机器人的预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。

Description

机器人遥操作预测方法和遥操作预测平台
技术领域
本发明涉及机器人领域,特别涉及一种机器人遥操作预测方法和遥操作预测平台。
背景技术
遥操作是机器人应用的一个重要技术,通过遥操作平台,操作人员可以监视和控制远方机器人完成各种作业任务,从而使机器人能够代替人类在一些无法触及的、甚至是一些危及人类健康或生命安全的环境下完成各种任务。网络时延的存在为遥操作系统的感知和控制带来了许多问题,网络时延能够导致系统的不稳定,从而严重降低系统的操作性能。
预测是遥操作系统中的一项关键技术。预测可以克服遥操作系统中的时延影响,对操作员有很好的指导和指示作用,提高系统的可操作性。预测系统可以实现机器人的运动学和动力学仿真,并且可以实现仿人型机器人实时碰撞检测,可以实现由遥操作者发出的操作命令的预测显示。但此类系统存在以下缺点:只能进行命令的预测,没有现场传感器信号,没有机器人实时运行信息的补偿。
现有技术提出了一种基于时间和位置的预测显示方式,系统根据当前状态和反馈轨迹,根据当前状态下的时延,对系统状态进行预测,并以图形的方式显示给操作员,提高了系统的操作性和稳定性。
在实现本发明的过程中,发明人发现上述现有技术至少具有以下缺点:
反馈信息中只包括位置信息,但是对于机器人,特别是多自由度的仿人型机器人,只有位置信息的补偿是不能全面反映机器人的运行情况的。
发明内容
为了全面反映机器人的运行情况,本发明实施例提供了一种机器人遥操作预测方法和遥操作预测平台,具体的技术方案如下:
一种机器人遥操作预测方法,所述方法包括:
接收机器人的反馈数据,所述反馈数据包括关节角数据和位姿数据,其中,所述关节角数据具体为所述机器人的各个关节角在其各个自由度方向上的角度,为所述机器人运行时实时测量得到;所述机器人运行一个周期,所述各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;所述位姿数据具体为所述机器人的位置数据和姿态数据,为所述机器人运行时实时检测得到;所述位置数据为所述机器人的重心在三维坐标系的各个坐标轴的投影,所述机器人运行一个周期,所述各个坐标轴的投影分别形成位置-时间曲线;所述姿态数据为所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,所述机器人运行一个周期,所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线;
利用所述反馈数据标定所述机器人的预测模型;
其中,所述利用所述反馈数据标定所述机器人的预测模型,具体为:将所述关节角数据和所述位姿数据分别取均值,根据所述均值进行所述机器人的步态组合,得到所述机器人的预测模型。
一种遥操作预测平台,所述遥操作平台包括:
接收模块,用于接收机器人的反馈数据,所述反馈数据包括关节角数据和位姿数据,所述关节角数据具体为所述机器人的各个关节角在其各个自由度方向上的角度,为所述机器人运行时实时测量得到;所述机器人运行一个周期,所述各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;所述位姿数据具体为所述机器人的位置数据和姿态数据,为所述机器人运行时实时检测得到;所述位置数据为所述机器人的重心在三维坐标系的各个坐标轴的投影,所述机器人运行一个周期,所述各个坐标轴的投影分别形成位置-时间曲线;所述姿态数据为所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,所述机器人运行一个周期,所述围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线;
标定模块,用于利用所述反馈数据标定所述机器人的预测模型;
其中,所述标定模块包括标定单元和预测单元;
所述标定单元,用于将所述关节角数据和所述位姿数据分别取均值;
所述预测单元,用于根据所述均值进行所述机器人的步态组合,得到所述机器人的预测模型。
本发明实施例提供的技术方案的有益效果是:
通过将机器人的关节角数据、位姿数据同时反馈给遥操作预测平台,并将机器人运行每个周期的多次实际测量得到的关节角数据、位姿数据分别拟合为曲线,对同一数据的多条曲线在同一时刻的数据值取均值,得到各个数据的标定值,根据标定值进行步态组合,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。
附图说明
图1是本发明实施例1中提供的机器人遥操作预测方法的流程图;
图2是本发明实施例1中提供的仿人型机器人行走遥操作预测方法的流程图;
图3是本发明实施例2中提供的遥操作预测平台的结构示意图;
图4是本发明实施例3中提供的标定模块的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例1
参见图1,本发明实施例提供了一种机器人遥操作预测方法,包括:
步骤101:接收机器人的反馈数据;
步骤102:利用该反馈数据标定该机器人的预测模型。
步骤101中具体包括:
接收该机器人的关节角数据和位姿数据;
关节角数据具体为该机器人的各个关节角在其各个自由度方向上的角度,为机器人运行时实时测量得到;机器人运行一个周期,各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;
位姿数据具体为该机器人的位置数据和姿态数据,为机器人运行时实时检测得到;位置数据为该机器人的重心在三维坐标系的各个坐标轴的投影,机器人运行一个周期,各个坐标轴的投影分别形成位置-时间曲线;
姿态数据为该机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,机器人运行一个周期,机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线。
步骤102具体包括:
将关节角数据和位姿数据分别取均值,根据求得的均值进行该机器人的步态组合,得到机器人的预测模型。
将关节角数据取均值,包括:
同一关节角在同一自由度方向上形成的N条关节角角度-时间曲线,同一时刻的关节角角度取均值,形成一条关节角角度均值-时间曲线,N为正整数;
使用相同的方法计算机器人各个关节角在其各个自由度方向上的关节角角度均值-时间曲线。
将位姿数据取均值,包括:将位置数据和姿态数据分别取均值;
将位置数据取均值包括:
机器人的重心在同一坐标轴上的投影形成的N条位置-时间曲线,同一时刻的位置数据取均值,形成一条位置均值-时间曲线;
使用相同的方法计算机器人的重心在三维坐标系的各个坐标轴上的投影的位置均值-时间曲线;
将姿态数据取均值,包括:
机器人围绕以重心为原点的三维坐标系的同一坐标轴旋转形成的N条姿态角度-时间曲线,同一时刻的姿态角度取均值,形成一条姿态角度均值-时间曲线;
使用相同的方法计算机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的姿态角度均值-时间曲线。
进一步地,根据求得的均值进行机器人的步态组合,包括:
根据关节角角度均值-时间曲线、位置均值-时间曲线和姿态角度均值-时间曲线,进行机器人的步态组合。
本发明实施例通过将关节角数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角数据进行取均值,位姿数据取均值,根据求得的均值进行步态组合,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。
实施例2
本实施例以仿人型机器人行走为例,对机器人遥操作预测方法进行详细地阐述:
将机器人行走过程分为3种步伐状态,分别为:
步伐状态1:双脚并排直立;
步伐状态2:左脚在前右脚在后;
步伐状态3:右脚在前左脚在后。
以上3种步伐状态相互转化可以产生6种步态模式:
步态模式1:左脚迈步开始行走为状态1->状态2;
步态模式2:右脚迈步开始行走为状态1->状态3;
步态模式3:左脚迈步前进为状态3->状态2;
步态模式4:右脚迈步前进为状态2->状态3;
步态模式5:左脚收脚结束为状态3->状态1;
步态模式6:右脚收脚结束为状态2->状态1。
以上6种步态模式可以组合出机器人的任意步行过程。
参见图2,机器人遥操作预测方法包括:
步骤201:制作遥操作预测平台,其中包括机器人作业场景的三维模型和数据处理模块;
机器人作业场景的模型主要为两种:环境模型和机器人模型。
(1)环境模型:使用三维建模软件制作结构已知的机器人作业场所中的环境模型,该环境模型具有与实际物体相同的外形特征和位置关系,可以实现全视角观察;
(2)机器人模型:使用三维建模软件制作机器人模型,该模型具有与机器人相同的外形几何特征及自由度设置,满足仿人型机器人多连杆结构运动学的约束条件。
步骤202:在机器人作业现场安装红外摄像头、在机器人身体的各个典型位置设定标点(用于运动捕获系统)、在机器人身体的各关节角安装角度传感器;
其中,红外摄像头用于识别并向遥操作预测平台传输机器人的位置数据、以及识别并向遥操作预测平台传输机器人的姿态数据;在这里,位置数据和姿态数据可以统称为位姿数据。
不仅限于使用红外摄像头,其他可以达到相同效果的仪器均能够使用。
这里,红外摄像头捕获在机器人身体上各个典型位置的标点,将所捕获的图像传送给遥操作预测平台,运动捕获系统在遥操作预测平台上准确重现机器人的位置和姿态。
角度传感器测量包括机器人每条腿部的6个关节角和每条手臂的6个关节角,腿部自由度分布如下:髋关节3个、膝关节1个、踝关节2个;手臂自由度分布如下:肩关节3个、肘关节2个、腕关节1个。
至此,准备工作完成。
步骤203:机器人在作业环境下开始步行,遥操作预测开始;
其中,使用设定好的初始化数据确定机器人模型及其环境模型的初始位置,以及机器人模型的各关节的初始角度。
步骤204:遥操作者在遥操作预测平台上发出操作命令,数据处理模块接收操作命令,并将操作命令进行解释,生成预测轨迹数据;使用预测轨迹数据驱动三维模型中的机器人模型和环境模型,构成三维虚拟场景。此场景能够显示机器人执行遥操作者发出命令的预测图像,实现运动学和动力学仿真;
步骤205:机器人实际执行遥操作者发出的操作命令进行步行,机器人作业现场安装的红外摄像头工作,将检测到的图像传输给遥操作预测平台,机器人本身的角度传感器实时测量各关节角角度数据,传输给遥操作预测平台;
其中,位置数据具体为仿人型机器人行走过程中的重心相对于机器人出发时的重心的相对位置坐标;机器人出发时的重心位置,作为位置数据的坐标系原点,按照右手法则建立三维坐标系的x、y、z轴。
姿态数据具体为仿人型机器人行走过程中的姿态,可以用机器人围绕以重心为原点的三维坐标系的各个坐标轴(x1、y1、z1轴)旋转的角度来表示。
步骤206:数据处理模块将接收到的机器人运行一个周期的位置数据在x轴投影的坐标值、在y轴投影的坐标值、在z轴投影的坐标值分别形成三条位置-时间曲线;将接收到的机器人运行一个周期的姿态数据在围绕以机器人重心为原点的x1轴的逆时针方向旋转的角度、在围绕以机器人重心为原点的y1轴的逆时针方向旋转的角度、在围绕以机器人重心为原点的z1轴的逆时针方向旋转的角度分别形成三条姿态角度-时间曲线;将机器人运行一个周期的每个关节角数据各个自由度的关节角度分别形成关节角角度-时间曲线;
这里以机器人重心为原点的x1、y1、z1轴组成的三维坐标系同样符合右手法则。
步骤207:将步骤203至步骤206重复进行N次,N为大于等于2的正整数,N的值越大,越能够反映理想情况;
步骤208:将位置数据在x轴投影的坐标值的N条位置-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条x轴的位置均值-时间曲线,M为正整数,M越大越能够反映理想情况;位置数据在y轴投影的坐标值的N条位置-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条y轴的位置均值-时间曲线;位置数据在z轴投影的坐标值的N条位置-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条z轴的位置均值-时间曲线;将x轴、y轴、z轴的位置均值-时间曲线映射到坐标系中,便是机器人的位置均值-时间曲线。
将姿态数据在围绕以机器人重心为原点的x1轴的逆时针方向旋转的N条姿态角度-时间的曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条围绕x1轴旋转的姿态角度均值-时间曲线;姿态数据在围绕以机器人重心为原点的y1轴的逆时针方向旋转的N条姿态角度-时间曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条围绕y1轴旋转的姿态角度均值-时间的曲线;姿态数据在围绕以机器人重心为原点的z1轴的逆时针方向旋转的N条姿态角度-时间的曲线,选择相同时刻的数据点做均值,M个时刻的数据均值形成一条围绕z1轴旋转的姿态角度均值-时间曲线;将x1轴、y1轴、z1轴的姿态角度均值-时间曲线映射到坐标系中,便是机器人的姿态角度均值-时间曲线。
机器人的位置均值-时间曲线和姿态角度均值-时间曲线统称为机器人的位姿均值-时间曲线;
关节角数据曲线的处理,以其中一条腿的膝关节为例,其他各关节与膝关节的处理方法基本相同:
由于膝关节只有一个自由度,所以膝关节在其唯一的自由度方向上的N条关节角角度曲线,选择相同时刻的数据点做均值,L个时刻的数据均值形成一条膝关节在该自由度方向上的关节角角度均值-时间曲线,L为正整数,L的值越大,越能够反映理想情况。
其他的关节角按照各自的自由度个数,形成关节角在其各个自由度方向上的关节角角度均值-时间曲线,例如,踝关节具有2个自由度,那么踝关节需要计算形成2个自由度方向上的关节角角度均值-时间曲线,依次类推。
步骤209:根据位姿均值-时间曲线和各个关节角在其各自由度的关节角角度均值-时间曲线,进行机器人的步态组合,得到机器人的预测模型;
步骤210:使用均值-时间曲线(位姿均值-时间曲线、关节角角度均值-时间曲线)中的数据驱动虚拟场景中的各个模型,生成机器人实际执行命令的预测运动图像;
其中,由于机器人工作场景的结构化特点,可以认为均值-时间曲线中的数据趋近于机器人实际行走的位姿数据和关节角角度数据。
另外,对于机器人打太极拳的情况,由于打太极拳本身为固定的规划模块,因此将打太极拳视为一个整体,采集打太极拳整个过程的位置数据曲线和关节角数据曲线,将多次采集的数据的均值曲线作为机器人打太极拳的标定。
本发明实施例通过将关节角角度数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角角度数据进行取均值,位姿数据取均值,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。
实施例3
参见图3,本发明实施例提供了一种遥操作预测平台,包括:
接收模块301,用于接收机器人的反馈数据;
标定模块302,用于利用反馈数据标定机器人的预测模型。
接收模块301具体用于:
接收该机器人的关节角数据和位姿数据;
关节角数据具体为该机器人的各个关节角在其各个自由度方向上的角度,为机器人运行时实时测量得到;机器人运行一个周期,各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;
位姿数据具体为该机器人的位置数据和姿态数据,为机器人运行时实时检测得到;位置数据为该机器人的重心在三维坐标系的各个坐标轴的投影,机器人运行一个周期,各个坐标轴的投影分别形成位置-时间曲线;
姿态数据为该机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,机器人运行一个周期,机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线。
参见图4,标定模块302具体包括:
标定单元302A,用于将关节角数据和位姿数据分别取均值;
预测单元302B,用于根据求得的均值进行该机器人的步态组合,得到机器人的预测模型。
标定单元302A具体用于:
将关节角数据取均值,包括:
同一关节角在同一自由度方向上形成的N条关节角角度-时间曲线,同一时刻的关节角角度取均值,形成一条关节角角度均值-时间曲线,N为正整数;
使用相同的方法计算机器人各个关节角在其各个自由度方向上的关节角角度均值-时间曲线。
将位姿数据取均值,包括:将位置数据和姿态数据分别取均值;
将位置数据取均值包括:
机器人的重心在同一坐标轴上的投影形成的N条位置-时间曲线,同一时刻的位置数据取均值,形成一条位置均值-时间曲线;
使用相同的方法计算机器人的重心在三维坐标系的各个坐标轴上的投影的位置均值-时间曲线;
将姿态数据取均值,包括:
机器人围绕以重心为原点的三维坐标系的同一坐标轴旋转形成的N条姿态角度-时间曲线,同一时刻的姿态角度取均值,形成一条姿态角度均值-时间曲线;
使用相同的方法计算机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的姿态角度均值-时间曲线。
进一步地,根据求得的均值进行机器人的步态组合,包括:
根据关节角角度均值-时间曲线、位置均值-时间曲线和姿态角度均值-时间曲线,进行机器人的步态组合。
遥操作预测平台为全视角观察平台。
本发明实施例通过将关节角角度数据和位姿数据同时反馈给遥操作预测平台,并将多次实际测量得到的关节角角度数据进行取均值,位姿数据取均值,得到机器人的预测模型,并生成预测运动图像,全面反映了机器人的运行情况,完成遥操作预测。
本发明实施例可以利用软件实现,相应的软件程序可以存储在可读取的存储介质中,例如,路由器的硬盘、缓存或光盘中。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种机器人遥操作预测方法,其特征在于,所述方法包括:
接收机器人的反馈数据,所述反馈数据包括关节角数据和位姿数据,其中,所述关节角数据具体为所述机器人的各个关节角在其各个自由度方向上的角度,为所述机器人运行时实时测量得到;所述机器人运行一个周期,所述各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;所述位姿数据具体为所述机器人的位置数据和姿态数据,为所述机器人运行时实时检测得到;所述位置数据为所述机器人的重心在三维坐标系的各个坐标轴的投影,所述机器人运行一个周期,所述各个坐标轴的投影分别形成位置-时间曲线;所述姿态数据为所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,所述机器人运行一个周期,所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线;
利用所述反馈数据标定所述机器人的预测模型;
其中,所述利用所述反馈数据标定所述机器人的预测模型,具体为:将所述关节角数据和所述位姿数据分别取均值,根据所述均值进行所述机器人的步态组合,得到所述机器人的预测模型。
2.如权利要求1所述的机器人遥操作预测方法,其特征在于,将所述关节角数据取均值,包括:
同一关节角在同一自由度方向上形成的N条所述关节角角度-时间曲线,同一时刻的关节角角度取均值,形成一条关节角角度均值-时间曲线,N为正整数;
使用相同的方法计算所述机器人各个关节角在其各个自由度方向上的关节角角度均值-时间曲线。
3.如权利要求2所述的机器人遥操作预测方法,其特征在于,将所述位姿数据取均值,包括:
将所述位置数据和所述姿态数据分别取均值;
将所述位置数据取均值包括:
所述机器人的重心在同一坐标轴上的投影形成的N条所述位置-时间曲线,同一时刻的位置数据取均值,形成一条位置均值-时间曲线;
使用相同的方法计算所述机器人的重心在三维坐标系的各个坐标轴上的投影的位置均值-时间曲线;
将所述姿态数据取均值包括:
所述机器人围绕以重心为原点的三维坐标系的同一坐标轴旋转形成的N条姿态角度-时间曲线,同一时刻的姿态角度取均值,形成一条姿态角度均值-时间曲线;
使用相同的方法计算所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的姿态角度均值-时间曲线。
4.如权利要求3所述的机器人遥操作预测方法,其特征在于,所述根据所述均值进行所述机器人的步态组合,包括:
根据所述关节角角度均值-时间曲线、所述位置均值-时间曲线和所述姿态角度均值-时间曲线,进行所述机器人的步态组合。
5.一种遥操作预测平台,其特征在于,所述遥操作平台包括:
接收模块,用于接收机器人的反馈数据,所述反馈数据包括关节角数据和位姿数据,所述关节角数据具体为所述机器人的各个关节角在其各个自由度方向上的角度,为所述机器人运行时实时测量得到;所述机器人运行一个周期,所述各个关节角在其各个自由度方向分别形成关节角角度-时间曲线;所述位姿数据具体为所述机器人的位置数据和姿态数据,为所述机器人运行时实时检测得到;所述位置数据为所述机器人的重心在三维坐标系的各个坐标轴的投影,所述机器人运行一个周期,所述各个坐标轴的投影分别形成位置-时间曲线;所述姿态数据为所述机器人围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度,所述机器人运行一个周期,所述围绕以重心为原点的三维坐标系的各个坐标轴旋转的角度分别形成姿态角度-时间曲线;
标定模块,用于利用所述反馈数据标定所述机器人的预测模型;
其中,所述标定模块包括标定单元和预测单元;
所述标定单元,用于将所述关节角数据和所述位姿数据分别取均值;
所述预测单元,用于根据所述均值进行所述机器人的步态组合,得到所述机器人的预测模型。
6.如权利要求5所述的遥操作预测平台,其特征在于,所述标定单元具体用于:
将所述关节角数据取均值,包括:
同一关节角在同一自由度方向上形成的N条所述关节角角度-时间曲线,同一时刻的关节角角度取均值,形成一条关节角角度均值-时间曲线,N为正整数;
使用相同的方法计算所述机器人各个关节角在其各个自由度方向上的关节角角度均值-时间曲线。
7.如权利要求6所述的遥操作预测平台,其特征在于,所述标定单元具体用于:
将所述位置数据和所述姿态数据分别取均值;
将所述位置数据取均值包括:
所述机器人的重心在同一坐标轴上的投影形成的N条所述位置-时间曲线,同一时刻的位置数据取均值,形成一条位置均值-时间曲线;
使用相同的方法计算所述机器人的重心在三维坐标系的各个坐标轴上的投影的位置均值-时间曲线;
将所述姿态数据取均值包括:
所述机器人围绕以重心为原点的坐标系的同一坐标轴旋转形成的N条姿态角度-时间曲线,同一时刻的姿态角度取均值,形成一条姿态角度均值-时间曲线;
使用相同的方法计算所述围绕以重心为原点的三维坐标系的各个坐标轴旋转的姿态角度均值-时间曲线。
8.如权利要求7所述的遥操作预测平台,其特征在于,
所述预测单元,用于根据所述关节角角度均值-时间曲线、所述位置均值-时间曲线和所述姿态角度均值-时间曲线进行所述机器人的步态组合,得到所述机器人的预测模型。
9.如权利要求5所述的遥操作预测平台,其特征在于,所述遥操作预测平台为全视角观察平台。
CN2008102245597A 2008-10-20 2008-10-20 机器人遥操作预测方法和遥操作预测平台 Active CN101434066B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008102245597A CN101434066B (zh) 2008-10-20 2008-10-20 机器人遥操作预测方法和遥操作预测平台

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008102245597A CN101434066B (zh) 2008-10-20 2008-10-20 机器人遥操作预测方法和遥操作预测平台

Publications (2)

Publication Number Publication Date
CN101434066A CN101434066A (zh) 2009-05-20
CN101434066B true CN101434066B (zh) 2012-11-21

Family

ID=40708782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008102245597A Active CN101434066B (zh) 2008-10-20 2008-10-20 机器人遥操作预测方法和遥操作预测平台

Country Status (1)

Country Link
CN (1) CN101434066B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101692180B (zh) * 2009-10-13 2012-01-04 江苏科技大学 遥操作机器人丢包补偿系统及其实现方法
CN101844353B (zh) * 2010-04-14 2011-08-10 华中科技大学 机械臂/灵巧手系统遥操作任务规划和仿真方法
CN102085663B (zh) * 2010-12-22 2012-11-14 中国科学院深圳先进技术研究院 遥操作系统及方法
CN103720476B (zh) * 2013-12-13 2015-05-27 天津大学 一种曲径运动模式下的稳定性评价方法
CN104020668B (zh) * 2014-05-05 2016-09-14 中国科学院力学研究所 一种不确定时延条件下机械臂运动状态的预测方法及装置
US10425622B2 (en) * 2017-07-18 2019-09-24 The United States Of America As Represented By The Secretary Of The Army Method of generating a predictive display for tele-operation of a remotely-operated ground vehicle
CN110065064A (zh) * 2018-01-24 2019-07-30 南京机器人研究院有限公司 一种机器人分拣控制方法
CN110253566B (zh) * 2019-05-22 2022-03-29 深圳镁伽科技有限公司 运动控制部件、运动控制方法、机器人及运动控制系统
CN111580519B (zh) * 2020-05-12 2023-06-30 北京控制工程研究所 一种地月时延下月面探测准实时遥操作系统
CN114905478A (zh) * 2021-02-08 2022-08-16 腾讯科技(深圳)有限公司 双边遥操作系统及控制方法
CN113625729A (zh) * 2021-08-10 2021-11-09 哈尔滨工程大学 一种大时延下的水下机器人遥操作装置及实现方法
CN114822005B (zh) * 2022-06-28 2022-09-20 深圳市矽昊智能科技有限公司 基于人工智能的遥控意图预测方法、装置、设备及介质
CN114880888B (zh) * 2022-07-08 2022-09-09 四川大学 多旋转关节机器人末端效应器位姿相关动力学的预测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000117672A (ja) * 1998-10-16 2000-04-25 Xerox Corp モジュ―ル間スイッチ接続の動的再構成方法及び装置
CN1586831A (zh) * 2004-07-09 2005-03-02 北京理工大学 具有重力补偿和长度可调的6自由度遥操作手臂
CN1840298A (zh) * 2005-04-01 2006-10-04 北京理工大学 基于多信息融合的仿人型机器人作业场景的重构
CN1843712A (zh) * 2006-05-12 2006-10-11 上海大学 基于虚拟现实机器人灵巧手遥操作平台

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000117672A (ja) * 1998-10-16 2000-04-25 Xerox Corp モジュ―ル間スイッチ接続の動的再構成方法及び装置
CN1586831A (zh) * 2004-07-09 2005-03-02 北京理工大学 具有重力补偿和长度可调的6自由度遥操作手臂
CN1840298A (zh) * 2005-04-01 2006-10-04 北京理工大学 基于多信息融合的仿人型机器人作业场景的重构
CN1843712A (zh) * 2006-05-12 2006-10-11 上海大学 基于虚拟现实机器人灵巧手遥操作平台

Also Published As

Publication number Publication date
CN101434066A (zh) 2009-05-20

Similar Documents

Publication Publication Date Title
CN101434066B (zh) 机器人遥操作预测方法和遥操作预测平台
US11009941B2 (en) Calibration of measurement units in alignment with a skeleton model to control a computer system
US9360301B2 (en) Method and apparatus for using gestures to control a laser tracker
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
US10369697B2 (en) Collision detection
KR101768958B1 (ko) 고품질 콘텐츠 제작을 위한 하이브리드 모션캡쳐 시스템
Fang et al. A robotic hand-arm teleoperation system using human arm/hand with a novel data glove
US9021712B2 (en) Autonomous system and method for determining information representative of the movement of an articulated chain
Filiatrault et al. Human arm motion imitation by a humanoid robot
US20210109606A1 (en) Automatic Switching between Different Modes of Tracking User Motions to Control Computer Applications
CN102566552B (zh) 面向物联网和3d gis的公路隧道智能检修机器人
CN108748220A (zh) 一种基于惯性测量单元的脚-机跟随控制方法及控制系统
US20230278214A1 (en) Robot localization using variance sampling
Lambrecht et al. Markerless gesture-based motion control and programming of industrial robots
CN100389013C (zh) 基于多信息融合的仿人型机器人作业场景重构方法
Das et al. GeroSim: A simulation framework for gesture driven robotic arm control using Intel RealSense
CN105818145A (zh) 仿人机器人的分布式控制系统及方法
JP7224559B2 (ja) 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
CN115329922A (zh) 煤矿井下多功能四足机器人数字孪生系统及其运行方法
Gasteratos et al. PRONTO: a system for mobile robot navigation via CAD-model guidance
Bai et al. Research on key technologies of meal delivery robot based on the fusion of lidar and machine vision
TW202319707A (zh) 混合型室內定位系統
CN114193442A (zh) 机器人控制方法、装置及计算机存储介质
Li et al. Research on Key Technologies of Intelligent Capture System for Personnel Position and Attitude
Reskó et al. Ubiquitous sensory intelligence in industrial robot programming

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant