CN116021514A - 机器人遥操作控制方法、装置、机器人以及电子设备 - Google Patents

机器人遥操作控制方法、装置、机器人以及电子设备 Download PDF

Info

Publication number
CN116021514A
CN116021514A CN202211643480.4A CN202211643480A CN116021514A CN 116021514 A CN116021514 A CN 116021514A CN 202211643480 A CN202211643480 A CN 202211643480A CN 116021514 A CN116021514 A CN 116021514A
Authority
CN
China
Prior art keywords
target
data
robot
action
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211643480.4A
Other languages
English (en)
Inventor
闫萌
陈春玉
周江琛
陆丽华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN202211643480.4A priority Critical patent/CN116021514A/zh
Publication of CN116021514A publication Critical patent/CN116021514A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Manipulator (AREA)

Abstract

本发明公开了一种机器人遥操作控制方法、装置、机器人以及电子设备。该方法包括:获取目标对象的目标动作数据和位移数据,其中目标动作数据包括头部动作数据和手臂动作数据;根据目标动作数据控制目标机器人动作,以使目标机器人完成目标动作数据对应的动作;根据位移数据,基于MPC算法对目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧‑阻尼系统,对目标质心轨迹进行跟踪,以使目标机器人移动到位移数据对应的位置。本发明解决了现有技术无法实现对机器人的全身遥操作的技术问题。

Description

机器人遥操作控制方法、装置、机器人以及电子设备
技术领域
本发明涉及机器人领域,具体而言,涉及一种机器人遥操作控制方法、装置、机器人以及电子设备。
背景技术
仿人机器人Walker具有与人类高度相似的外观和结构,具有头部、躯干、手臂、手掌、双腿、脚掌等结构,可以实现拟人态的运动。仿人机器人可代替人类进行一些高危活动,但目前的技术水平还不足以支撑机器人在复杂的环境中进行完全自主地决策,仍然需要人类参与控制机器人完成复杂任务。
发明内容
本发明实施例提供了一种机器人遥操作控制方法、装置、机器人以及电子设备,以至少解决现有技术无法实现对机器人的全身遥操作的技术问题。
根据本发明实施例的一个方面,提供了一种机器人遥操作控制方法,包括:获取目标对象的目标动作数据和位移数据,其中上述目标动作数据包括头部动作数据和手臂动作数据;根据上述目标动作数据控制目标机器人动作,以使上述目标机器人完成上述目标动作数据对应的动作;根据上述位移数据,基于MPC算法对上述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对上述目标质心轨迹进行跟踪,以使上述目标机器人移动到上述位移数据对应的位置。
根据本发明实施例的另一方面,提供了一种机器人遥操作控制装置,包括:第一获取模块,用于获取目标对象的目标动作数据和位移数据,其中上述目标动作数据包括头部动作数据和手臂动作数据;第一控制模块,用于根据上述目标动作数据控制目标机器人动作,以使上述目标机器人完成上述目标动作数据对应的动作;移动模块,用于根据上述位移数据,基于MPC算法对上述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对上述目标质心轨迹进行跟踪,以使上述目标机器人移动到上述位移数据对应的位置。
作为一种可选的示例,上述装置还包括:第二获取模块,用于在获取目标对象的目标动作数据之前,获取上述目标对象的头部校准动作数据、手臂校准动作数据以及校准位置数据;第二控制模块,用于根据上述头部校准动作数据控制上述目标机器人的头部动作,以使上述目标机器人的头部完成上述头部校准动作数据对应的动作,根据上述手臂校准动作数据控制目标机器人的手臂动作,以使上述目标机器人的手臂完成上述手臂校准动作数据对应的动作;第一创建模块,用于以上述校准位置数据为原点创建人体坐标系;第二创建模块,用于以上述目标机器人的校准位置数据为原点创建机器人坐标系。
作为一种可选的示例,上述第一获取模块包括:获取单元,用于获取上述目标对象的运动姿态数据和骨骼数据;第一计算单元,用于根据数据融合算法、滤波算法以及上述运动姿态数据,计算得到上述目标对象的关节旋转矩阵;第二计算单元,用于根据上述骨骼数据,计算得到上述目标对象的骨骼向量;第三计算单元,用于计算上述关节旋转矩阵与上述骨骼向量的乘积,得到上述位移数据。
作为一种可选的示例,上述第一控制模块包括:第一控制单元,用于根据头部动作数据控制上述目标机器人动作,以使上述目标机器人的头部完成上述头部动作数据对应的动作;第二控制单元,用于根据手臂动作数据控制上述目标机器人动作,以使上述目标机器人的手臂完成上述手臂动作数据对应的动作。
作为一种可选的示例,上述位移模块包括:映射单元,用于将位移数据映射到人体坐标系中,得到映射位移数据,并将上述映射位移数据映射到机器人坐标系中,得到上述目标质心轨迹;第三控制单元,用于根据上述目标质心轨迹控制上述目标机器人动作,以使上述目标机器人移动至上述位移数据对应的位置。
作为一种可选的示例,上述装置还包括:第三控制模块,用于控制上述目标机器人的头部摄像头进行拍摄,得到视野数据;发送模块,用于将上述视野数据发送至目标设备。
根据本发明实施例的另一方面,提供了一种机器人,包括:第一获取模块,用于获取目标对象的目标动作数据和位移数据,其中上述目标动作数据包括头部动作数据和手臂动作数据;执行模块,用于执行模块,用于根据上述目标动作数据执行目标动作;移动模块,用于根据上述位移数据,基于MPC算法对上述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,根据上述目标质心轨迹移动到上述位移数据对应的位置。
作为一种可选的示例,上述机器人还包括:第二获取模块,用于在获取目标对象的目标动作数据之前,获取上述目标对象的头部校准动作数据、手臂校准动作数据以及校准位置数据;第一控制模块,用于根据上述头部校准动作数据控制头部动作,以使上述头部完成上述头部校准动作数据对应的动作,根据上述手臂校准动作数据控制手臂动作,以使上述手臂完成上述手臂校准动作数据对应的动作;第一创建模块,用于以上述校准位置数据为原点创建人体坐标系;第二创建模块,用于以上述目标机器人的校准位置数据为原点创建机器人坐标系。
作为一种可选的示例,上述第一获取模块包括:获取单元,用于获取上述目标对象的运动姿态数据和骨骼数据;第一计算单元,用于根据数据融合算法、滤波算法以及上述运动姿态数据,计算得到上述目标对象的关节旋转矩阵;第二计算单元,用于根据上述骨骼数据,计算得到上述目标对象的骨骼向量;第三计算单元,用于计算上述关节旋转矩阵与上述骨骼向量的乘积,得到上述位移数据。
作为一种可选的示例,上述执行模块包括:第一控制单元,用于根据头部动作数据控制头部动作,以使上述头部完成上述头部动作数据对应的动作;第二控制单元,用于根据手臂动作数据控制手臂动作,以使上述手臂完成上述手臂动作数据对应的动作。
作为一种可选的示例,上述位移模块包括:映射单元,用于将位移数据映射到人体坐标系中,得到映射位移数据,并将上述映射位移数据映射到机
器人坐标系中,得到上述目标质心轨迹;移动单元,用于根据上述目标质心5轨迹移动至上述位移数据对应的目标位置。
作为一种可选的示例,上述机器人还包括:第二控制模块,用于控制头部摄像头进行拍摄,得到视野数据;发送模块,用于将上述视野数据发送至目标设备。
根据本发明实施例的又一方面,还提供了一种存储介质,该存储介质中0存储有计算机程序,其中,该计算机程序被处理器运行时执行上述机器人遥操作控制方法。
根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的机器人遥操作控制方法。
5在本发明实施例中,采用了获取目标对象的目标动作数据和位移数据,
其中上述目标动作数据包括头部动作数据和手臂动作数据;根据上述目标动作数据控制目标机器人动作,以使上述目标机器人完成上述目标动作数据对应的动作;根据上述位移数据,基于MPC算法对上述目标机器人进行质心轨
迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对上述目标质心轨迹进0行跟踪,以使上述目标机器人移动到上述位移数据对应的位置的方法,由于在上述方法中,通过获取目标对象的全身运动数据目标动作数据,并映射到目标机器人上,控制目标机器人动作,以使目标机器人完成目标对象相同的动作,从而实现了目标对象对目标机器人的远程遥操作的目的,进而解决了现有技术无法实现对机器人的全身遥操作的技术问题。
5附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的机器人遥操作控制方法的流程图;
图2是根据本发明实施例的一种可选的机器人遥操作控制方法的整体技术方案图;
图3是根据本发明实施例的一种可选的机器人遥操作控制方法的惯性动作捕捉设备穿戴示意图;
图4是根据本发明实施例的一种可选的机器人遥操作控制方法的惯性动作捕捉设备转换数据流程图;
图5是根据本发明实施例的一种可选的机器人遥操作控制方法的全身远程机器人遥操作控制策略流程图;
图6是根据本发明实施例的一种可选的机器人遥操作控制装置的结构示意图;
图7是根据本发明实施例的一种可选的机器人的结构示意图;
图8是根据本发明实施例的一种可选的电子设备的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的第一方面,提供了一种机器人遥操作控制方法,可选地,如图1所示,上述方法包括:
S102,获取目标对象的目标动作数据和位移数据,其中目标动作数据包括头部动作数据和手臂动作数据;
S104,根据目标动作数据控制目标机器人动作,以使目标机器人完成目标动作数据对应的动作;
S106,根据位移数据,基于MPC算法对目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对目标质心轨迹进行跟踪,以使目标机器人移动到位移数据对应的位置。
可选地,本实施例中,全身远程遥操作整体技术方案如图2所示,通过目标对象佩戴惯性动作捕捉设备,来获取目标对象的全身的运动数据目标动作数据,将目标动作数据实时地传送给电脑上的主控制器,主控制器对采集到的目标动作数据进行转换,转换到目标机器人的工作空间内,得到目标机器人的期望运动轨迹,电脑上的主控制器通过全身运动控制策略对目标机器人的期望运动轨迹进行解算,得到目标机器人各关节的控制数据,把得到的各关节的控制数据通过无线局域网发送给远处的目标机器人,以使目标机器人完成期望运动轨迹对应的动作和运动轨迹,从而实现了对目标机器人的实时控制。
可选地,本实施例中,惯性动作捕捉设备采用惯性姿态传感器采集数据,每个传感器都内置了高动态的三轴加速度计、三轴陀螺仪、三轴磁力计,操作者站在电脑前,将姿态传感器分别佩戴在目标对象的相应关节上,可以提供各个关节的加速度、角速度等数据,采用九轴数据融合算法以及卡尔曼滤波算法,可以计算出高精度的运动数据。
可选地,本实施例中,目标对象佩戴惯性动作捕捉设备的示意图如图3所示,将17个惯性姿态传感器分别佩戴在目标对象的头部、双肩、双大臂、双小臂、双手掌心、后背、腰部、双大腿、双小腿、双脚等关节上,通过传感器对目标对象的运动姿态数据进行实时捕获,得到目标对象的头部动作数据、手臂动作数据以及位移数据。
可选地,本实施例中,通过获取目标对象的全身运动数据目标动作数据,并映射到目标机器人上,控制目标机器人动作,以使目标机器人完成目标对象相同的动作,提高了目标机器人完成任务的灵活性、实时性及精确性。从而实现了目标对象对目标机器人的远程遥操作的目的,进而解决了现有技术无法实现对机器人的全身遥操作的技术问题。
作为一种可选的示例,在获取目标对象的目标动作数据之前,上述方法还包括:
获取目标对象的头部校准动作数据、手臂校准动作数据以及校准位置数据;
根据头部校准动作数据控制目标机器人的头部动作,以使目标机器人的头部完成头部校准动作数据对应的动作,根据手臂校准动作数据控制目标机器人的手臂动作,以使目标机器人的手臂完成手臂校准动作数据对应的动作;
以校准位置数据为原点创建人体坐标系;
以目标机器人的校准位置数据为原点创建机器人坐标系。
可选地,本实施例中,程序初始化时,需要目标对象做校准动作,消除传感器在身体上的穿戴误差,然后记录下此时人体头部、机械臂、腰部的数据,得到头部校准动作数据、手臂校准动作数据以及校准位置数据,并根据部校准动作数据控制目标机器人的头部动作,根据手臂校准动作数据控制目标机器人的手臂动作,对目标机器人进行初始化。令此时腰部的位置为原点创建人体坐标系,令此时目标机器校准位置数据为原点创建机器人坐标系。后续目标对象动作时,将头部的旋转角度映射到机器人的头部关节,可以调整头部摄像头的视野,手臂动作时将手臂关节的旋转角度按规则映射到目标机器人的机械臂关节上,控制机械臂进行特定的操作,目标对象进行移动时,将腰部的位移从人体坐标系中映射到机器人坐标系中,控制机器人移动到指定的位置。
作为一种可选的示例,获取目标对象的位移数据包括:
获取目标对象的运动姿态数据和骨骼数据;
根据数据融合算法、滤波算法以及运动姿态数据,计算得到目标对象的关节旋转矩阵;
根据骨骼数据,计算得到目标对象的骨骼向量;
计算关节旋转矩阵与骨骼向量的乘积,得到位移数据。
可选地,本实施例中,通过传感器对目标对象的运动姿态数据进行实时捕获后,通过数据融合算法及滤波算法,得到各个关节的旋转矩阵。提前测量好目标对象的骨骼数据,包括身长、头部长度、颈部长度、肩宽、大臂长度、小臂长度、腰宽、大腿长度、小腿长度、脚踝高度、脚长等数据,录入程序中,得到目标对象的骨骼向量,通过骨骼向量和旋转矩阵相乘,可以得到目标对象的位移数据。
作为一种可选的示例,根据目标动作数据控制目标机器人动作包括:
根据头部动作数据控制目标机器人动作,以使目标机器人的头部完成头部动作数据对应的动作;
根据手臂动作数据控制目标机器人动作,以使目标机器人的手臂完成手臂动作数据对应的动作。
作为一种可选的示例,根据位移数据,基于MPC算法对目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对目标质心轨迹进行跟踪,以使目标机器人移动到位移数据对应的位置包括:
将位移数据映射到人体坐标系中,得到映射位移数据,并将映射位移数据映射到机器人坐标系中,得到目标质心轨迹;
根据目标质心轨迹控制目标机器人动作,以使目标机器人移动至位移数据对应的目标位置。
可选地,本实施例中,惯性动作捕捉设备采集到的目标动作数据位于人体坐标系下,需要将其映射到机器人坐标系。在这里的数据转换分为三个部分,头部动作数据转换、手臂动作数据转换、位移数据转换,数据转换的具体流程如图4所示,控制策略流程图如图5所示,根据目标动作数据进行控制。接收映射后的头部动作数据,通过三次插值曲线进行对目标机器人的头部进行控制,同时接收映射后的手臂动作数据,同样通过三次插值曲线对目标机器人的手臂进行控制,保证机械臂运行的平滑安全。当目标对象进行移动时,将目标对象在人体坐标系中的位移数据映射到机器人坐标系中,得到机器人坐标系中的期望位移数据,同时实时读取目标机器人各关节状态,基于MPC算法进行目标机器人质心轨迹规划,然后建立弹簧-阻尼系统对规划的质心轨迹进行跟踪,最后将计算得到的髋腿关节控制数据发送给目标机器人,令目标机器人行走到期望位置。
作为一种可选的示例,上述方法还包括:
控制目标机器人的头部摄像头进行拍摄,得到视野数据;
将视野数据发送至目标设备。
可选地,本实施例中,目标设备可以为手机、电脑等。将目标机器人的头部摄像头拍摄的画面通过无线局域网实时地传输回电脑,并在电脑的显示器上进行显示,使站在电脑前的操作者可以获得目标机器人周围的环境信息,根据目标机器人所处的环境进行调整。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本申请实施例的另一方面,还提供了一种机器人遥操作控制装置,如图6所示,包括:
第一获取模块602,用于获取目标对象的目标动作数据和位移数据,其中上述目标动作数据包括头部动作数据和手臂动作数据;
第一控制模块604,用于根据目标动作数据控制目标机器人动作,以使目标机器人完成目标动作数据对应的动作;
移动模块606,用于根据位移数据,基于MPC算法对目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对目标质心轨迹进行跟踪,以使目标机器人移动到位移数据对应的位置。
可选地,本实施例中,通过目标对象佩戴惯性动作捕捉设备,来获取目标对象的全身的运动数据目标动作数据,将目标动作数据实时地传送给电脑上的主控制器,主控制器对采集到的目标动作数据进行转换,转换到目标机器人的工作空间内,得到目标机器人的期望运动轨迹,电脑上的主控制器通过全身运动控制策略对目标机器人的期望运动轨迹进行解算,得到目标机器人各关节的控制数据,把得到的各关节的控制数据通过无线局域网发送给远处的目标机器人,以使目标机器人完成期望运动轨迹对应的动作和运动轨迹,从而实现了对目标机器人的实时控制。
可选地,本实施例中,惯性动作捕捉设备采用惯性姿态传感器采集数据,每个传感器都内置了高动态的三轴加速度计、三轴陀螺仪、三轴磁力计,操作者站在电脑前,将姿态传感器分别佩戴在目标对象的相应关节上,可以提供各个关节的加速度、角速度等数据,采用九轴数据融合算法以及卡尔曼滤波算法,可以计算出高精度的运动数据。
可选地,本实施例中,将17个惯性姿态传感器分别佩戴在目标对象的头部、双肩、双大臂、双小臂、双手掌心、后背、腰部、双大腿、双小腿、双脚等关节上,通过传感器对目标对象的运动姿态数据进行实时捕获,得到目标对象的头部动作数据、手臂动作数据以及位移数据。
可选地,本实施例中,通过获取目标对象的全身运动数据目标动作数据,并映射到目标机器人上,控制目标机器人动作,以使目标机器人完成目标对象相同的动作,提高了目标机器人完成任务的灵活性、实时性及精确性。从而实现了目标对象对目标机器人的远程遥操作的目的,进而解决了现有技术无法实现对机器人的全身遥操作的技术问题。
作为一种可选的示例,上述装置还包括:
第二获取模块,用于在获取目标对象的目标动作数据之前,获取目标对象的头部校准动作数据、手臂校准动作数据以及校准位置数据;
第二控制模块,用于根据头部校准动作数据控制目标机器人的头部动作,以使目标机器人的头部完成头部校准动作数据对应的动作,根据手臂校准动作数据控制目标机器人的手臂动作,以使目标机器人的手臂完成手臂校准动作数据对应的动作;
第一创建模块,用于以校准位置数据为原点创建人体坐标系;
第二创建模块,用于以目标机器人的校准位置数据为原点创建机器人坐标系。
可选地,本实施例中,程序初始化时,需要目标对象做校准动作,消除传感器在身体上的穿戴误差,然后记录下此时人体头部、机械臂、腰部的数据,得到头部校准动作数据、手臂校准动作数据以及校准位置数据,并根据部校准动作数据控制目标机器人的头部动作,根据手臂校准动作数据控制目标机器人的手臂动作,对目标机器人进行初始化。令此时腰部的位置为原点创建人体坐标系,令此时目标机器校准位置数据为原点创建机器人坐标系。后续目标对象动作时,将头部的旋转角度映射到机器人的头部关节,可以调整头部摄像头的视野,手臂动作时将手臂关节的旋转角度按规则映射到目标机器人的机械臂关节上,控制机械臂进行特定的操作,目标对象进行移动时,将腰部的位移从人体坐标系中映射到机器人坐标系中,控制机器人移动到指定的位置。
作为一种可选的示例,第一获取模块包括:
获取单元,用于获取目标对象的运动姿态数据和骨骼数据;
第一计算单元,用于根据数据融合算法、滤波算法以及运动姿态数据,计算得到目标对象的关节旋转矩阵;
第二计算单元,用于根据骨骼数据,计算得到目标对象的骨骼向量;
第三计算单元,用于计算关节旋转矩阵与骨骼向量的乘积,得到位移数据。
可选地,本实施例中,通过传感器对目标对象的运动姿态数据进行实时捕获后,通过数据融合算法及滤波算法,得到各个关节的旋转矩阵。提前测量好目标对象的骨骼数据,包括身长、头部长度、颈部长度、肩宽、大臂长度、小臂长度、腰宽、大腿长度、小腿长度、脚踝高度、脚长等数据,录入程序中,得到目标对象的骨骼向量,通过骨骼向量和旋转矩阵相乘,可以得到目标对象的位移数据。
作为一种可选的示例,第一控制模块包括:
第一控制单元,用于根据头部动作数据控制目标机器人动作,以使目标机器人的头部完成头部动作数据对应的动作;
第二控制单元,用于根据手臂动作数据控制目标机器人动作,以使目标机器人的手臂完成手臂动作数据对应的动作。
作为一种可选的示例,位移模块包括:
映射单元,用于将位移数据映射到人体坐标系中,得到映射位移数据,并将映射位移数据映射到机器人坐标系中,得到目标质心轨迹;
第三控制单元,用于根据目标质心轨迹控制目标机器人动作,以使目标机器人移动至位移数据对应的目标位置。
可选地,本实施例中,惯性动作捕捉设备采集到的目标动作数据位于人体坐标系下,需要将其映射到机器人坐标系。在这里的数据转换分为三个部分,头部动作数据转换、手臂动作数据转换、位移数据转换,根据目标动作数据进行控制。接收映射后的头部动作数据,通过三次插值曲线进行对目标机器人的头部进行控制,同时接收映射后的手臂动作数据,同样通过三次插值曲线对目标机器人的手臂进行控制,保证机械臂运行的平滑安全。当目标对象进行移动时,将目标对象在人体坐标系中的位移数据映射到机器人坐标系中,得到机器人坐标系中的期望位移数据,同时实时读取目标机器人各关节状态,基于MPC算法进行目标机器人质心轨迹规划,然后建立弹簧-阻尼系统对规划的质心轨迹进行跟踪,最后将计算得到的髋腿关节控制数据发送给目标机器人,令目标机器人行走到期望位置。
作为一种可选的示例,上述装置还包括:
第三控制模块,用于控制目标机器人的头部摄像头进行拍摄,得到视野数据;
发送模块,用于将视野数据发送至目标设备。
可选地,本实施例中,目标设备可以为手机、电脑等。将目标机器人的头部摄像头拍摄的画面通过无线局域网实时地传输回电脑,并在电脑的显示器上进行显示,使站在电脑前的操作者可以获得目标机器人周围的环境信息,根据目标机器人所处的环境进行调整。
根据本发明实施例的另一方面,提供了一种机器人,可选地,如图7所示,包括:
第一获取模块702,用于获取目标对象的目标动作数据和位移数据,其中上述目标动作数据包括头部动作数据和手臂动作数据;
执行模块704,用于执行模块,用于根据目标动作数据执行目标动作;
移动模块706,用于根据位移数据,基于MPC算法对目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,根据目标质心轨迹移动到位移数据对应的位置。
可选地,本实施例中,通过目标对象佩戴惯性动作捕捉设备,来获取目标对象的全身的运动数据目标动作数据,将目标动作数据转换到目标机器人的工作空间内,得到目标机器人的期望运动轨迹,通过全身运动控制策略对期望运动轨迹进行解算,得到目标机器人各关节的控制数据,根据各个关节的控制数据执行目标动作,以使目标机器人完成期望运动轨迹对应的动作和运动轨迹。
可选地,本实施例中,惯性动作捕捉设备采用惯性姿态传感器采集数据,每个传感器都内置了高动态的三轴加速度计、三轴陀螺仪、三轴磁力计,操作者站在电脑前,将姿态传感器分别佩戴在目标对象的相应关节上,可以提供各个关节的加速度、角速度等数据,采用九轴数据融合算法以及卡尔曼滤波算法,可以计算出高精度的运动数据。
可选地,本实施例中,将17个惯性姿态传感器分别佩戴在目标对象的头部、双肩、双大臂、双小臂、双手掌心、后背、腰部、双大腿、双小腿、双脚等关节上,通过传感器对目标对象的运动姿态数据进行实时捕获,得到目标对象的头部动作数据、手臂动作数据以及位移数据。
可选地,本实施例中,通过获取目标对象的全身运动数据目标动作数据,并映射到目标机器人上,目标机器人根据目标动作数据执行动作目标,以使目标机器人完成目标对象相同的动作,提高了目标机器人完成任务的灵活性、实时性及精确性。从而实现了目标对象对目标机器人的远程遥操作的目的,进而解决了现有技术无法实现对机器人的全身遥操作的技术问题。
作为一种可选的示例,上述机器人还包括:
第二获取模块,用于在获取目标对象的目标动作数据之前,获取目标对象的头部校准动作数据、手臂校准动作数据以及校准位置数据;
第一控制模块,用于根据头部校准动作数据控制头部动作,以使头部完成头部校准动作数据对应的动作,根据手臂校准动作数据控制手臂动作,以使手臂完成手臂校准动作数据对应的动作;
第一创建模块,用于以校准位置数据为原点创建人体坐标系;
第二创建模块,用于以目标机器人的校准位置数据为原点创建机器人坐标系。
可选地,本实施例中,程序初始化时,需要目标对象做校准动作,消除传感器在身体上的穿戴误差,然后记录下此时人体头部、机械臂、腰部的数据,得到头部校准动作数据、手臂校准动作数据以及校准位置数据,并根据部校准动作数据控制目标机器人的头部动作,根据手臂校准动作数据控制目标机器人的手臂动作,对目标机器人进行初始化。令此时腰部的位置为原点创建人体坐标系,令此时目标机器校准位置数据为原点创建机器人坐标系。后续目标对象动作时,将头部的旋转角度映射到机器人的头部关节,可以调整头部摄像头的视野,手臂动作时将手臂关节的旋转角度按规则映射到目标机器人的机械臂关节上,控制机械臂进行特定的操作,目标对象进行移动时,将腰部的位移从人体坐标系中映射到机器人坐标系中,控制机器人移动到指定的位置。
作为一种可选的示例,第一获取模块包括:
获取单元,用于获取目标对象的运动姿态数据和骨骼数据;
第一计算单元,用于根据数据融合算法、滤波算法以及运动姿态数据,计算得到目标对象的关节旋转矩阵;
第二计算单元,用于根据骨骼数据,计算得到目标对象的骨骼向量;
第三计算单元,用于计算关节旋转矩阵与骨骼向量的乘积,得到位移数据。
可选地,本实施例中,通过传感器对目标对象的运动姿态数据进行实时捕获后,通过数据融合算法及滤波算法,得到各个关节的旋转矩阵。提前测量好目标对象的骨骼数据,包括身长、头部长度、颈部长度、肩宽、大臂长度、小臂长度、腰宽、大腿长度、小腿长度、脚踝高度、脚长等数据,录入程序中,得到目标对象的骨骼向量,通过骨骼向量和旋转矩阵相乘,可以得到目标对象的位移数据。
作为一种可选的示例,执行模块包括:
第一控制单元,用于根据头部动作数据控制头部动作,以使头部完成头部动作数据对应的动作;
第二控制单元,用于根据手臂动作数据控制手臂动作,以使手臂完成手臂动作数据对应的动作。
作为一种可选的示例,位移模块包括:
映射单元,用于将位移数据映射到人体坐标系中,得到映射位移数据,并将映射位移数据映射到机器人坐标系中,得到目标质心轨迹;
移动单元,用于根据目标质心轨迹移动至位移数据对应的目标位置。
可选地,本实施例中,惯性动作捕捉设备采集到的目标动作数据位于人体坐标系下,需要将其映射到机器人坐标系。在这里的数据转换分为三个部分,头部动作数据转换、手臂动作数据转换、位移数据转换,根据目标动作数据进行控制。接收映射后的头部动作数据,通过三次插值曲线进行对目标机器人的头部进行控制,同时接收映射后的手臂动作数据,同样通过三次插值曲线对目标机器人的手臂进行控制,保证机械臂运行的平滑安全。当目标对象进行移动时,将目标对象在人体坐标系中的位移数据映射到机器人坐标系中,得到机器人坐标系中的期望位移数据,同时实时读取目标机器人各关节状态,基于MPC算法进行目标机器人质心轨迹规划,然后建立弹簧-阻尼系统对规划的质心轨迹进行跟踪,最后目标机器人根据计算得到的髋腿关节控制数据执行动作,以使目标机器人行走到期望位置。
作为一种可选的示例,上述机器人还包括:
第二控制模块,用于控制头部摄像头进行拍摄,得到视野数据;
发送模块,用于将视野数据发送至目标设备。
可选地,本实施例中,目标设备可以为手机、电脑等。将目标机器人的头部摄像头拍摄的画面通过无线局域网实时地传输回电脑,并在电脑的显示器上进行显示,使站在电脑前的操作者可以获得目标机器人周围的环境信息,根据目标机器人所处的环境进行调整。
本实施例的其他示例请参见上述示例,在此不在赘述。
图8是根据本申请实施例的一种可选的电子设备的示意图,如图8所示,包括处理器802、通信接口804、存储器806和通信总线808,其中,处理器802、通信接口804和存储器806通过通信总线808完成相互间的通信,其中,
存储器806,用于存储计算机程序;
处理器802,用于执行存储器806上所存放的计算机程序时,实现如下步骤:
获取目标对象的目标动作数据和位移数据,其中目标动作数据包括头部动作数据和手臂动作数据;
根据目标动作数据控制目标机器人动作,以使目标机器人完成目标动作数据对应的动作;
根据位移数据,基于MPC算法对目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对目标质心轨迹进行跟踪,以使目标机器人移动到位移数据对应的位置。
可选地,在本实施例中,上述的通信总线可以是PCI(Peripheral ComponentInterconnect,外设部件互连标准)总线、或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括RAM,也可以包括非易失性存储器(non-volatile memory),例如,至少一个磁盘存储器。可选地,存储器还可以是至少一个位于远离前述处理器的存储装置。
作为一种示例,上述存储器806中可以但不限于包括上述机器人遥操作控制装置中的第一获取模块602、第一控制模块604以及移动模块606。此外,还可以包括但不限于上述机器人遥操作控制装置中的其他模块单元,本示例中不再赘述。
上述处理器可以是通用处理器,可以包含但不限于:CPU(Central ProcessingUnit,中央处理器)、NP(Network Processor,网络处理器)等;还可以是DSP(DigitalSignal Processing,数字信号处理器)、ASIC(Application Specific IntegratedCircuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图8所示的结构仅为示意,实施上述机器人遥操作控制方法的设备可以是终端设备,该终端设备可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图8并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图8中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图8所示的不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、ROM、RAM、磁盘或光盘等。
根据本发明的实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被处理器运行时执行上述机器人遥操作控制方法中的步骤。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种机器人遥操作控制方法,其特征在于,包括:
获取目标对象的目标动作数据和位移数据,其中所述目标动作数据包括头部动作数据和手臂动作数据;
根据所述目标动作数据控制目标机器人动作,以使所述目标机器人完成所述目标动作数据对应的动作;
根据所述位移数据,基于MPC算法对所述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对所述目标质心轨迹进行跟踪,以使所述目标机器人移动到所述位移数据对应的位置。
2.根据权利要求1所述的方法,其特征在于,在获取目标对象的目标动作数据之前,所述方法还包括:
获取所述目标对象的头部校准动作数据、手臂校准动作数据以及校准位置数据;
根据所述头部校准动作数据控制所述目标机器人的头部动作,以使所述目标机器人的头部完成所述头部校准动作数据对应的动作,根据所述手臂校准动作数据控制目标机器人的手臂动作,以使所述目标机器人的手臂完成所述手臂校准动作数据对应的动作;
以所述校准位置数据为原点创建人体坐标系;
以所述目标机器人的校准位置数据为原点创建机器人坐标系。
3.根据权利要求1所述的方法,其特征在于,所述获取所述目标对象的位移数据包括:
获取所述目标对象的运动姿态数据和骨骼数据;
根据数据融合算法、滤波算法以及所述运动姿态数据,计算得到所述目标对象的关节旋转矩阵;
根据所述骨骼数据,计算得到所述目标对象的骨骼向量;
计算所述关节旋转矩阵与所述骨骼向量的乘积,得到所述位移数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标动作数据控制目标机器人动作包括:
根据头部动作数据控制所述目标机器人动作,以使所述目标机器人的头部完成所述头部动作数据对应的动作;
根据手臂动作数据控制所述目标机器人动作,以使所述目标机器人的手臂完成所述手臂动作数据对应的动作。
5.根据权利要求1所述的方法,其特征在于,所述根据所述位移数据,基于MPC算法对所述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对所述目标质心轨迹进行跟踪,以使所述目标机器人移动到所述位移数据对应的位置包括:
将所述位移数据映射到人体坐标系中,得到映射位移数据,并将所述映射位移数据映射到机器人坐标系中,得到所述目标质心轨迹;
根据所述目标质心轨迹控制所述目标机器人动作,以使所述目标机器人移动至所述位移数据对应的位置。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
控制所述目标机器人的头部摄像头进行拍摄,得到视野数据;
将所述视野数据发送至目标设备。
7.一种机器人遥操作控制装置,其特征在于,包括:
第一获取模块,用于获取目标对象的目标动作数据和位移数据,其中所述目标动作数据包括头部动作数据和手臂动作数据;
第一控制模块,用于根据所述目标动作数据控制目标机器人动作,以使所述目标机器人完成所述目标动作数据对应的动作;
移动模块,用于根据所述位移数据,基于MPC算法对所述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,对所述目标质心轨迹进行跟踪,以使所述目标机器人移动到所述位移数据对应的位置。
8.一种机器人,其特征在于,包括:
第一获取模块,用于获取目标对象的目标动作数据和位移数据,其中所述目标动作数据包括头部动作数据和手臂动作数据;
执行模块,用于根据所述目标动作数据执行目标动作;
移动模块,用于根据所述位移数据,基于MPC算法对所述目标机器人进行质心轨迹规划,得到目标质心轨迹,并建立弹簧-阻尼系统,根据所述目标质心轨迹移动到所述位移数据对应的位置。
9.一种计算机可读的存储介质,所述计算机可读的存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行所述权利要求1至6任一项中所述的方法。
10.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至6任一项中所述的方法。
CN202211643480.4A 2022-12-20 2022-12-20 机器人遥操作控制方法、装置、机器人以及电子设备 Pending CN116021514A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211643480.4A CN116021514A (zh) 2022-12-20 2022-12-20 机器人遥操作控制方法、装置、机器人以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211643480.4A CN116021514A (zh) 2022-12-20 2022-12-20 机器人遥操作控制方法、装置、机器人以及电子设备

Publications (1)

Publication Number Publication Date
CN116021514A true CN116021514A (zh) 2023-04-28

Family

ID=86069862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211643480.4A Pending CN116021514A (zh) 2022-12-20 2022-12-20 机器人遥操作控制方法、装置、机器人以及电子设备

Country Status (1)

Country Link
CN (1) CN116021514A (zh)

Similar Documents

Publication Publication Date Title
CN108762495B (zh) 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
Fang et al. A robotic hand-arm teleoperation system using human arm/hand with a novel data glove
CN104197987A (zh) 一种组合式运动捕捉系统
TWI427558B (zh) 遮蔽骨架之位置估算系統、遮蔽骨架之位置估算方法及遮蔽骨架之重建方法
WO2014114967A1 (en) Self-calibrating motion capture system
CN109211267B (zh) 一种惯性动作捕捉姿态快速校准方法及系统
Yuan et al. SLAC: 3D localization of human based on kinetic human movement capture
CN102177004B (zh) 自主系统和用于测定表征关节链运动信息的方法
Roy et al. Kinect camera based gait data recording and analysis for assistive robotics-an alternative to goniometer based measurement technique
US20180216959A1 (en) A Combined Motion Capture System
Ahmed et al. A visual-inertial approach to human gait estimation
CN110609621B (zh) 姿态标定方法及基于微传感器的人体运动捕获系统
Yahya et al. Accurate shoulder joint angle estimation using single RGB camera for rehabilitation
Callejas-Cuervo et al. Capture and analysis of biomechanical signals with inertial and magnetic sensors as support in physical rehabilitation processes
CN110680335A (zh) 步长测量方法及其设备、系统、非易失性计算机存储介质
CN111158482B (zh) 一种人体动作姿态捕捉方法及系统
CN111113430B (zh) 一种机器人及其末端控制方法和装置
Ji et al. Motion trajectory of human arms based on the dual quaternion with motion tracker
CN116021514A (zh) 机器人遥操作控制方法、装置、机器人以及电子设备
Masters et al. Real-time arm tracking for HMI applications
Zhang et al. Ubiquitous human body motion capture using micro-sensors
JP6205387B2 (ja) 仮想マーカーの位置情報の取得方法及び装置、動作計測方法
Brüggemann et al. Coupled human-machine tele-manipulation
WO2017141573A1 (ja) 演算装置、演算方法及び演算プログラム
Wang et al. Intuitive and versatile full-body teleoperation of a humanoid robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination