CN112936282A - 一种提高工业机器人体感控制精确度的方法及系统 - Google Patents

一种提高工业机器人体感控制精确度的方法及系统 Download PDF

Info

Publication number
CN112936282A
CN112936282A CN202110251859.XA CN202110251859A CN112936282A CN 112936282 A CN112936282 A CN 112936282A CN 202110251859 A CN202110251859 A CN 202110251859A CN 112936282 A CN112936282 A CN 112936282A
Authority
CN
China
Prior art keywords
motion
robot
model
obtaining
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110251859.XA
Other languages
English (en)
Other versions
CN112936282B (zh
Inventor
刘天宋
张俊
杨欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Liu Guojun Vocational Technology College
Original Assignee
Changzhou Liu Guojun Vocational Technology College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Liu Guojun Vocational Technology College filed Critical Changzhou Liu Guojun Vocational Technology College
Priority to CN202110251859.XA priority Critical patent/CN112936282B/zh
Publication of CN112936282A publication Critical patent/CN112936282A/zh
Application granted granted Critical
Publication of CN112936282B publication Critical patent/CN112936282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种提高工业机器人体感控制精确度的方法及系统,其中,所述方法包括:将控制系统模型与PC控制端通信连接,获得第一通信链路;获得第一体感动作图像信息,第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;根据第一体感动作图像信息获得第一动作参数,第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;基于SVM算法,构建机器人的动作映射模型;根据动作映射模型,获得第一动作参数映射的机器人的第一关节角度;将第一关节角度输入控制系统模型,对机器人进行动作仿真。解决了现有的无法精准识别体感动作,进而无法对工业机器人进行精确的体感控制的技术问题。

Description

一种提高工业机器人体感控制精确度的方法及系统
技术领域
本发明涉及机器人体感控制技术领域,尤其涉及一种提高工业机器人体感控制精确度的方法及系统。
背景技术
工业机器人作为“机器换人”的一个重要环节,近几年逐渐受到越来越多国内厂家的重视。
但本申请发明人在实现本申请实施例中发明技术方案的过程中,发现上述技术至少存在如下技术问题:
由于现有的无法精准识别体感动作,使得机器人无法按照指定的动作运动,进而无法对工业机器人进行精确的体感控制。
发明内容
本申请实施例通过提供一种提高工业机器人体感控制精确度的方法及系统,解决了现有的无法精准识别体感动作,进而无法对工业机器人进行精确的体感控制的技术问题,通过建立控制机器人各关节运动的控制系统模型,进而实现体感动作控制机器人运动的精确性,达到了提高工业机器人体感控制精确度的技术效果。
本申请实施例提供了一种提高工业机器人体感控制精确度的方法,其中,所述方法应用于机器人体感控制系统,且所述系统与PC 控制端和控制系统模型通信连接,所述方法还包括:将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;基于SVM算法,构建机器人的动作映射模型;根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
另一方面,本申请还提供了一种提高工业机器人体感控制精确度的系统,其中,所述系统包括:第一连接单元:所述第一连接单元用于将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;第一获得单元:所述第一获得单元用于获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;第二获得单元:所述第二获得单元用于根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;第一构建单元:所述第一构建单元用于基于SVM算法,构建机器人的动作映射模型;第三获得单元:所述第三获得单元用于根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;第一输入单元:所述第一输入单元用于将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
通过将机器人控制系统模型与PC控制端通信连接,基于机器人的运动学或者逆运动学,实现人和机器人关节之间的映射,进而实现体感动作控制机器人运动的精确性,达到了提高工业机器人体感控制精确度的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例一种提高工业机器人体感控制精确度的方法的流程示意图;
图2为本申请实施例一种提高工业机器人体感控制精确度的系统的结构示意图;
图3为本申请实施例示例性电子设备的结构示意图。
附图标记说明:第一连接单元11,第一获得单元12,第二获得单元13,第一构建单元14,第三获得单元15,第一输入单元16,总线300,接收器301,处理器302,发送器303,存储器304,总线接口305。
具体实施方式
本申请实施例通过提供一种提高工业机器人体感控制精确度的方法及系统,解决了现有的无法精准识别体感动作,进而无法对工业机器人进行精确的体感控制的技术问题,通过建立控制机器人各关节运动的控制系统模型,进而实现体感动作控制机器人运动的精确性,达到了提高工业机器人体感控制精确度的技术效果。
下面,将参考附图详细的描述根据本申请的示例实施例。显然,所描述的实施例仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
工业机器人作为“机器换人”的一个重要环节,近几年逐渐受到越来越多国内厂家的重视。由于现有的无法精准识别体感动作,使得机器人无法按照指定的动作运动,进而无法对工业机器人进行精确的体感控制。
针对上述技术问题,本申请提供的技术方案总体思路如下:
本申请实施例提供了一种提高工业机器人体感控制精确度的方法,其中,所述方法应用于机器人体感控制系统,且所述系统与PC 控制端和控制系统模型通信连接,所述方法还包括:将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;基于SVM算法,构建机器人的动作映射模型;根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
为了更好地理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
实施例一
如图1所示,本申请实施例提供了一种提高工业机器人体感控制精确度的方法,其中,所述方法应用于机器人体感控制系统,且所述系统与PC控制端和控制系统模型通信连接,所述方法还包括:
步骤S100:将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;
进一步,步骤S100还包括:
步骤S110:基于串口、蓝牙或WIFI的任一种方式,将所述控制系统模型与所述PC控制端通信连接;
步骤S120:获得第一控制方式,所述第一控制方式为将所述PC 控制端作为上位机,将所述控制系统模型作为下位机,所述上位机控制所述下位机。
具体而言,对工业机器人进行体感控制时,是基于所述控制系统模型和所述PC控制端进行控制的,所述控制系统模型实为主控电路,用于对整个模拟电路进行控制,进一步,包括用于采集体感动作信号的惯性传感器的外围电路以及控制机器人体感示教系统的主控电路,除此之外,所述PC控制端为用于操控机器人工作的机器操控端。需要注意的是,将所述PC控制端作为上位机,将所述控制系统模型作为下位机,所述上位机控制所述下位机,进一步可理解为,所述PC 控制端控制所述控制系统模型,即所述控制系统面模型执行所述PC 控制端的命令。所述第一通信链路为将所述控制系统模型与所述PC 控制端通信连接,进行信号传输的通信链路。
进一步,可采用串口或蓝牙、WIFI等方式,将所述控制系统模型与所述PC控制端通信连接。所述串口是采用串行通信方式的扩展接口,串行接口(Serial Interface)是指数据一位一位地顺序传送,其特点是通信线路简单,只要一对传输线就可以实现双向通信(可以直接利用电话线作为传输线),从而大大降低了成本,特别适用于远距离通信,但传送速度较慢;蓝牙技术是一种无线数据和语音通信开放的全球规范,它是基于低成本的近距离无线连接,为固定和移动设备建立通信环境的一种特殊的近距离无线技术连接;WIFI,即无线通技术,通过无线电波来连网。通过采用串口或蓝牙、WIFI等方式,简化了主控与PC之间的连接方式,提高信号的传输效率。
步骤S200:获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;
具体而言,对工业机器人进行体感控制是基于人体的基本操作动作进行映射仿真的,进一步,通过摄像头可拍摄到人体动作连续变化是图象信息,进而根据拍摄到的图象信息进行有效动作的图象识别和提取,对无关操作的动作图象进行删除,使得提取到的都是有用动作图象信息,进而对所述第一体感动作图象信息进行分析处理。
步骤S300:根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;
进一步,步骤S300还包括:
步骤S310:根据所述第一体感动作图像信息获得第一姿态运动轨迹信息;
步骤S320:根据所述第一姿态运动轨迹信息获得第一姿态初始角度和第一姿态运动角度;
步骤S330:将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型,获得第一姿态角加速度;
步骤S340:获得所述第一姿态运动角度时的第一运动速度;
步骤S350:根据所述第一姿态运动轨迹和所述第一运动速度,获得第一姿态运动加速度;
步骤S360:根据所述第一姿态初始角度、所述第一姿态运动角度、所述第一姿态角加速度以及所述第一姿态运动加速度,获得第一动作参数。
具体而言,通过对人体的基本操作动作进行图象拍摄,可捕捉到某一动作的运动轨迹信息,举例而言,当人体上肢在对零部件进行抓取时,所述第一姿态运动轨迹信息可理解为上肢接触到零部件这一过程中上肢的运动轨迹,所述第一姿态初始角度可设定为上肢自然下垂的初始角度,即与地面相垂直的角度,所述第一姿态运动角度可设定为上肢抓取零部件时的上肢运动角度,即与地面之间存在一定角度差,基于所述姿态角度运算模型,可根据所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度,获得上肢运动轨迹的第一姿态角加速度信息,所述姿态角度运算模型为一个角度运算模型,内置角加速度算法,可对输入的角度信息进行计算,进而获得角加速度;除此之外,所述第一运动速度可理解为上肢接触到零部件时的速度,基于惯性原理,上肢在抓取到零部件后,不会停止动作,因此可获得所述第一运动速度,进而基于所述第一姿态运动轨迹和所述第一运动速度,可计算获得第一姿态运动加速度,所述第一姿态运动加速度可理解为上肢接触到零部件这一过程中上肢运动的加速度,通过获得所述第一姿态初始角度、所述第一姿态运动角度、所述第一姿态角加速度以及所述第一姿态运动加速度,可更加精确的将人体动作映射到机器人上,便于提高工业机器人的体感控制精确度。
进一步,步骤S330还包括:
步骤S331:将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型进行训练,所述姿态角度运算模型通过多组训练数据训练所得,所述多组训练数据中的每一组训练数据均包括:所述第一姿态运动轨迹、所述第一姿态初始角度、所述第一姿态运动角度以及用来标识第一姿态角加速度的标识信息;
步骤S332:获得所述姿态角度运算模型的第一运算结果,所述第一运算结果为第一姿态角加速度。
具体而言,为了获得更加准确的第一姿态角加速度,可将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型进行训练。所述姿态角度运算模型是一个神经网络模型,即机器学习中的神经网络模型,它是以神经元的数学模型为基础来描述的。简单地讲,它是一个数学模型。在本申请实施例中,将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型进行训练,用标识的第一姿态角加速度对神经网络模型进行训练。
进一步来说,所述伤患部位评估模型的过程实质为监督学习的过程。所述多组训练数据具体为:所述第一姿态运动轨迹、所述第一姿态初始角度、所述第一姿态运动角度以及用来标识第一姿态角加速度的标识信息。通过输入所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度,姿态角度运算模型会输出第一运算结果,所述第一运算结果为第一姿态角加速度。通过将所述输出信息与所述起标识作用的第一姿态角加速度进行校验,如果所述输出信息与所述起标识作用的第一姿态角加速度要求相一致,则本数据监督学习完成,则进行下一组数据监督学习;如果所述输出信息与所述起标识作用的第一姿态角加速度要求不一致,则神经网络学习模型自身进行调整,直到神经网络学习模型输出结果与所述起标识作用的第一姿态角加速度要求相一致,进行下一组数据的监督学习。通过训练数据使神经网络学习模型自身不断地修正、优化,通过监督学习的过程来提高神经网络学习模型处理所述信息的准确性,进而达到使得所述第一姿态角加速度更加精确,进而使得所述第一动作参数更加准确的技术效果。
步骤S400:基于SVM算法,构建机器人的动作映射模型;
步骤S500:根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;
具体而言,已知获得所述第一动作参数,为了将所述第一动作参数映射到机器人上,可基于SVM算法,构建机器人的动作映射模型。进一步,支持向量机(SVM)是基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。所谓映射,即在两个数据模型之间建立起数据元素的对应关系,在本申请实施例中,通过在人和机器人之间建立动作映射模型,可将人的动作映射到机器人上,使得机器人可以按照人的指令去工作,以此来实现对机器人的体感控制,通过将所述第一动作参数输入到所述动作映射模型,可以映射获得对应机器人的关节角度,使得机器人根据关节角度来进行适当活动。通过所述动作映射模型,实现了体感动作与机器人动作之间的映射,进而提高对机器人体感控制的精确度。
步骤S600:将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
进一步,步骤S600还包括:
步骤S610:将所述第一关节角度输入所述运动学模型,获得所述机器人的TCP坐标;
步骤S620:根据所述逆运动学模型和所述TCP坐标,获得所述第一关节角度对应的所述机器人的各肘关节角度;
步骤S630:将所述各肘关节角度输入所述动力学模型,对所述机器人进行动作仿真。
具体而言,已知获得机器人的第一关节角度,为了实现对机器人体感控制,可先根据D-H算法,建立机器人的运动学模型,进而将所述第一关节角度输入所述运动学模型,获得机器人的TCP坐标,进一步,D-H算法的出现就是用来进行密钥传输的,D-H算法是基于离散对数实现的;TCP(Tool Center Point)工具座标系是机器人运动的基准,机器人的工具坐标系是由工具中心点TCP与坐标方位组成,机器人连动时,TCP是必需的,当机器人夹具被更换,重新定义TCP后,可以不更改程序,直接运行,但是当安装新夹具后就必需要重新定义这个坐标系了,否则会影响机器人的稳定运行。进而利用逆运动学模型,根据机器人的TCP得出机器人的各轴关节角度,完成机器人的运动学和逆运动学分析,所谓逆运动学,可理解为使用多项式插值法或直线插补法等方法,分析关节空间和笛卡尔空间的轨迹规划方法,最后,建立机器人的动力学模型,将所述各肘关节角度输入所述动力学模型,进行动力学分析,结合利用BP神经网络,遗传算法等对机器人的运动进行仿真,并进行硬件在环实验和检测。所述BP神经网络,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络;所述遗传算法,是根据大自然中生物体进化规律而设计提出的,该算法通过数学的方式,利用计算机仿真运算,将问题的求解过程转换成类似生物进化中的染色体基因的交叉、变异等过程,在求解较为复杂的组合优化问题时,相对一些常规的优化算法,通常能够较快地获得较好的优化结果。通过根据机器人的运动学或者逆运动学,实现人和机器人关节之间的映射,通过动力学模型,实现了机器人的体感动作仿真。
进一步,本申请实施例还包括:
步骤S710:根据所述动力学模型获得所述机器人的第一仿真数据;
步骤S720:获得所述机器人的固有关节角度数据;
步骤S730:将所述第一仿真数据和所述固有关节角度数据输入数据对比模型进行对比训练,获得第一差异数据;
步骤S740:根据所述第一差异数据,获得第一调整指令;
步骤S750:根据所述第一调整指令,调整所述动力学模型的参数信息。
具体而言,在实现体感动作与机器人动作的映射时,还需要同步分析仿真数据和从机器人原有控制系统中读取的robtarget类型数据中的笛卡尔坐标数据,四元数数据和robjoint类型数据中读取的关节角度数据,并将以上数据进行反复比较,必要时调整模型中的相关参数,提高系统的精确性。举例而言,所述第一仿真数据可理解为机器人模拟人的上肢抓取零部件时的肘关节角度信息,所述固有关节角度数据可理解为机器人固有的肘关节的角度弯曲信息,进而通过对比所述第一仿真数据和所述固有关节角度数据,可获得第一差异数据,所述第一差异数据为机器人上肢肘关节运动时的角度差信息,通过所述第一差异数据,可对所述动力学模型的参数信息进行调整,使得机器人的肘关节运动角度无限接近于人的肘关节运动角度,进而使得仿真效果更佳逼真,提高工业机器人体感控制精确度。
进一步,本申请实施例还包括:
步骤S810:将所述PC控制端与所述机器人通信连接,获得第一通信链路;
步骤S820:获得所述机器人的程序系统结构;
步骤S830:根据所述程序系统结构获得所述机器人的控制程序;
步骤S840:根据所述控制程序,控制所述机器人的体感运动。
具体而言,体感动作最终要映射到机器人动作上,通过PROFIN ET及等时通讯,建立PC与ABB IRB 120机器人的通信连接,其次,研究ABB程序系统的结构,编写与课题相关的RAPID程序,实现机器人按照体感控制运动,提高运动的准确性和稳定性。通过对体感控制机器人关节运动的性能进行测试并通过不断调试,优化整个系统的可靠性,提高工作效率。
综上所述,本申请实施例所提供的一种提高工业机器人体感控制精确度的方法及系统具有如下技术效果:
1、通过将机器人控制系统模型与PC控制端通信连接,基于机器人的运动学或者逆运动学,实现人和机器人关节之间的映射,进而实现体感动作控制机器人运动的精确性,达到了提高工业机器人体感控制精确度的技术效果。
实施例二
基于与前述实施例中一种提高工业机器人体感控制精确度的方法同样发明构思,本发明还提供了一种提高工业机器人体感控制精确度的系统,如图2所示,所述系统包括:
第一连接单元11:所述第一连接单元11用于将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;
第一获得单元12:所述第一获得单元12用于获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;
第二获得单元13:所述第二获得单元13用于根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;
第一构建单元14:所述第一构建单元14用于基于SVM算法,构建机器人的动作映射模型;
第三获得单元15:所述第三获得单元15用于根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;
第一输入单元16:所述第一输入单元16用于将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
进一步的,所述系统还包括:
第二输入单元:所述第二输入单元用于将所述第一关节角度输入所述运动学模型,获得所述机器人的TCP坐标;
第四获得单元:所述第四获得单元用于根据所述逆运动学模型和所述TCP坐标,获得所述第一关节角度对应的所述机器人的各肘关节角度;
第三输入单元:所述第三输入单元用于将所述各肘关节角度输入所述动力学模型,对所述机器人进行动作仿真。
进一步的,所述系统还包括:
第五获得单元:所述第五获得单元用于根据所述动力学模型获得所述机器人的第一仿真数据;
第六获得单元:所述第六获得单元用于获得所述机器人的固有关节角度数据;
第四输入单元:所述第四输入单元用于将所述第一仿真数据和所述固有关节角度数据输入数据对比模型进行对比训练,获得第一差异数据;
第七获得单元:所述第七获得单元用于根据所述第一差异数据,获得第一调整指令;
第一调整单元:所述第一调整单元用于根据所述第一调整指令,调整所述动力学模型的参数信息。
进一步的,所述系统还包括:
第二连接单元:所述第二连接单元用于基于串口、蓝牙或WIFI 的任一种方式,将所述控制系统模型与所述PC控制端通信连接;
第八获得单元:所述第八获得单元用于获得第一控制方式,所述第一控制方式为将所述PC控制端作为上位机,将所述控制系统模型作为下位机,所述上位机控制所述下位机。
进一步的,所述系统还包括:
第九获得单元:所述第九获得单元用于根据所述第一体感动作图像信息获得第一姿态运动轨迹信息;
第十获得单元:所述第十获得单元用于根据所述第一姿态运动轨迹信息获得第一姿态初始角度和第一姿态运动角度;
第五输入单元:所述第五输入单元用于将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型,获得第一姿态角加速度;
第十一获得单元:所述第十一获得单元用于获得所述第一姿态运动角度时的第一运动速度;
第十二获得单元:所述第十二获得单元用于根据所述第一姿态运动轨迹和所述第一运动速度,获得第一姿态运动加速度;
第十三获得单元:所述第十三获得单元用于根据所述第一姿态初始角度、所述第一姿态运动角度、所述第一姿态角加速度以及所述第一姿态运动加速度,获得第一动作参数。
进一步的,所述系统还包括:
第三连接单元:所述第三连接单元用于将所述PC控制端与所述机器人通信连接,获得第一通信链路;
第十四获得单元:所述第十四获得单元用于获得所述机器人的程序系统结构;
第十五获得单元:所述第十五获得单元用于根据所述程序系统结构获得所述机器人的控制程序;
第一控制单元:所述第一控制单元用于根据所述控制程序,控制所述机器人的体感运动。
进一步的,所述系统还包括:
第六输入单元:所述第六输入单元用于将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型进行训练,所述姿态角度运算模型通过多组训练数据训练所得,所述多组训练数据中的每一组训练数据均包括:所述第一姿态运动轨迹、所述第一姿态初始角度、所述第一姿态运动角度以及用来标识第一姿态角加速度的标识信息;
第十六获得单元:所述第十六获得单元用于获得所述姿态角度运算模型的第一运算结果,所述第一运算结果为第一姿态角加速度。
前述图1实施例一中的一种提高工业机器人体感控制精确度的方法的各种变化方式和具体实例同样适用于本实施例的一种提高工业机器人体感控制精确度的系统,通过前述对一种提高工业机器人体感控制精确度的方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种提高工业机器人体感控制精确度的系统的实施方法,所以为了说明书的简洁,再次不再详述。
实施例三
下面参考图3来描述本申请实施例的电子设备。
图3图示了根据本申请实施例的电子设备的结构示意图。
基于与前述实例施中一种提高工业机器人体感控制精确度的方法的发明构思,本发明还提供一种提高工业机器人体感控制精确度的系统,其上存储有计算机程序,该程序被处理器执行时实现前文所述一种提高工业机器人体感控制精确度的系统的任一方法的步骤。
其中,在图3中,总线架构(用总线300来代表),总线300可以包括任意数量的互联的总线和桥,总线300将包括由处理器302代表的一个或多个处理器和存储器304代表的存储器的各种电路链接在一起。总线300还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口305在总线300和接收器 301和发送器303之间提供接口。接收器301和发送器303可以是同一个元件,即收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器302负责管理总线300和通常的处理,而存储器304可以被用于存储处理器302在执行操作时所使用的数据。
本申请实施例提供了一种提高工业机器人体感控制精确度的方法,其中,所述方法应用于机器人体感控制系统,且所述系统与PC 控制端和控制系统模型通信连接,所述方法还包括:将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;基于SVM算法,构建机器人的动作映射模型;根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种提高工业机器人体感控制精确度的方法,其中,所述方法应用于机器人体感控制系统,且所述系统与PC控制端和控制系统模型通信连接,所述方法还包括:
将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;
获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;
根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;
基于SVM算法,构建机器人的动作映射模型;
根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;
将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
2.如权利要求1所述的方法,其中,所述方法还包括:
将所述第一关节角度输入所述运动学模型,获得所述机器人的TCP坐标;
根据所述逆运动学模型和所述TCP坐标,获得所述第一关节角度对应的所述机器人的各肘关节角度;
将所述各肘关节角度输入所述动力学模型,对所述机器人进行动作仿真。
3.如权利要求2所述的方法,其中,所述方法还包括:
根据所述动力学模型获得所述机器人的第一仿真数据;
获得所述机器人的固有关节角度数据;
将所述第一仿真数据和所述固有关节角度数据输入数据对比模型进行对比训练,获得第一差异数据;
根据所述第一差异数据,获得第一调整指令;
根据所述第一调整指令,调整所述动力学模型的参数信息。
4.如权利要求1所述的方法,其中,所述将所述控制系统模型与所述PC控制端通信连接,还包括:
基于串口、蓝牙或WIFI的任一种方式,将所述控制系统模型与所述PC控制端通信连接;
获得第一控制方式,所述第一控制方式为将所述PC控制端作为上位机,将所述控制系统模型作为下位机,所述上位机控制所述下位机。
5.如权利要求1所述的方法,其中,所述根据所述第一体感动作图像信息获得第一动作参数,还包括:
根据所述第一体感动作图像信息获得第一姿态运动轨迹信息;
根据所述第一姿态运动轨迹信息获得第一姿态初始角度和第一姿态运动角度;
将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型,获得第一姿态角加速度;
获得所述第一姿态运动角度时的第一运动速度;
根据所述第一姿态运动轨迹和所述第一运动速度,获得第一姿态运动加速度;
根据所述第一姿态初始角度、所述第一姿态运动角度、所述第一姿态角加速度以及所述第一姿态运动加速度,获得第一动作参数。
6.如权利要求3所述的方法,其中,所述方法还包括:
将所述PC控制端与所述机器人通信连接,获得第一通信链路;
获得所述机器人的程序系统结构;
根据所述程序系统结构获得所述机器人的控制程序;
根据所述控制程序,控制所述机器人的体感运动。
7.如权利要求5所述的方法,其中所述将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型,获得第一姿态角加速度,还包括:
将所述第一姿态运动轨迹、所述第一姿态初始角度以及所述第一姿态运动角度输入姿态角度运算模型进行训练,所述姿态角度运算模型通过多组训练数据训练所得,所述多组训练数据中的每一组训练数据均包括:所述第一姿态运动轨迹、所述第一姿态初始角度、所述第一姿态运动角度以及用来标识第一姿态角加速度的标识信息;
获得所述姿态角度运算模型的第一运算结果,所述第一运算结果为第一姿态角加速度。
8.一种提高工业机器人体感控制精确度的系统,其中,所述系统包括:
第一连接单元:所述第一连接单元用于将所述控制系统模型与所述PC控制端通信连接,获得第一通信链路,其中,所述控制系统模型由运动学模型、逆运动学模型以及动力学模型组成;
第一获得单元:所述第一获得单元用于获得第一体感动作图像信息,所述第一体感动作图像信息为摄像头拍摄的人体动作连续变化的图像信息;
第二获得单元:所述第二获得单元用于根据所述第一体感动作图像信息获得第一动作参数,所述第一动作参数包含第一姿态角度、第一加速度以及第一角加速度;
第一构建单元:所述第一构建单元用于基于SVM算法,构建机器人的动作映射模型;
第三获得单元:所述第三获得单元用于根据所述动作映射模型,获得所述第一动作参数映射的所述机器人的第一关节角度;
第一输入单元:所述第一输入单元用于将所述第一关节角度输入所述控制系统模型,对所述机器人进行动作仿真。
9.一种提高工业机器人体感控制精确度的系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现权利要求1-7任一项所述方法的步骤。
CN202110251859.XA 2021-03-08 2021-03-08 一种提高工业机器人体感控制精确度的方法及系统 Active CN112936282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110251859.XA CN112936282B (zh) 2021-03-08 2021-03-08 一种提高工业机器人体感控制精确度的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110251859.XA CN112936282B (zh) 2021-03-08 2021-03-08 一种提高工业机器人体感控制精确度的方法及系统

Publications (2)

Publication Number Publication Date
CN112936282A true CN112936282A (zh) 2021-06-11
CN112936282B CN112936282B (zh) 2022-01-07

Family

ID=76228877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110251859.XA Active CN112936282B (zh) 2021-03-08 2021-03-08 一种提高工业机器人体感控制精确度的方法及系统

Country Status (1)

Country Link
CN (1) CN112936282B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117340914A (zh) * 2023-10-24 2024-01-05 哈尔滨工程大学 一种仿人机器人体感控制方法及控制系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108274448A (zh) * 2018-01-31 2018-07-13 佛山智能装备技术研究院 一种人体交互的机器人示教方法及示教系统
CN108638069A (zh) * 2018-05-18 2018-10-12 南昌大学 一种机械臂末端精确运动控制方法
CN109079794A (zh) * 2018-09-18 2018-12-25 广东省智能制造研究所 一种基于人体姿态跟随的机器人控制与示教方法
CN110919650A (zh) * 2019-11-20 2020-03-27 江苏大学 一种基于svm的低延时抓取遥操作系统
CN111673745A (zh) * 2020-05-27 2020-09-18 上海瑞界网络科技有限公司 一种基于体感互动的机器人控制系统和方法
US20210023694A1 (en) * 2019-07-23 2021-01-28 Qingdao university of technology System and method for robot teaching based on rgb-d images and teach pendant
US10919152B1 (en) * 2017-05-30 2021-02-16 Nimble Robotics, Inc. Teleoperating of robots with tasks by mapping to human operator pose

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10919152B1 (en) * 2017-05-30 2021-02-16 Nimble Robotics, Inc. Teleoperating of robots with tasks by mapping to human operator pose
CN108274448A (zh) * 2018-01-31 2018-07-13 佛山智能装备技术研究院 一种人体交互的机器人示教方法及示教系统
CN108638069A (zh) * 2018-05-18 2018-10-12 南昌大学 一种机械臂末端精确运动控制方法
CN109079794A (zh) * 2018-09-18 2018-12-25 广东省智能制造研究所 一种基于人体姿态跟随的机器人控制与示教方法
US20210023694A1 (en) * 2019-07-23 2021-01-28 Qingdao university of technology System and method for robot teaching based on rgb-d images and teach pendant
CN110919650A (zh) * 2019-11-20 2020-03-27 江苏大学 一种基于svm的低延时抓取遥操作系统
CN111673745A (zh) * 2020-05-27 2020-09-18 上海瑞界网络科技有限公司 一种基于体感互动的机器人控制系统和方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117340914A (zh) * 2023-10-24 2024-01-05 哈尔滨工程大学 一种仿人机器人体感控制方法及控制系统
CN117340914B (zh) * 2023-10-24 2024-05-14 哈尔滨工程大学 一种仿人机器人体感控制方法及控制系统

Also Published As

Publication number Publication date
CN112936282B (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
WO2018107851A1 (zh) 冗余机械臂的控制方法及装置
Fang et al. A novel data glove using inertial and magnetic sensors for motion capture and robotic arm-hand teleoperation
WO2017210654A2 (en) Methods and devices for assessing a captured motion
CN109079794B (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN113910218B (zh) 一种基于运动学与深度神经网络融合的机器人标定方法和装置
Hafez et al. Deep intrinsically motivated continuous actor-critic for efficient robotic visuomotor skill learning
CN113119104B (zh) 机械臂控制方法、机械臂控制装置、计算设备及系统
CN111152227A (zh) 一种基于引导式dqn控制的机械臂控制方法
CN112936282B (zh) 一种提高工业机器人体感控制精确度的方法及系统
Fang et al. Vision-based posture-consistent teleoperation of robotic arm using multi-stage deep neural network
CN115919250A (zh) 一种人体动态关节角测量系统
Li et al. An incremental learning framework to enhance teaching by demonstration based on multimodal sensor fusion
CN116629373A (zh) 一种模型训练系统、训练方法、装置及存储介质
CN115014824A (zh) 机器人测试系统、方法及计算机可读存储介质
Nogales et al. A proposal for Hand gesture control applied to the KUKA youBot using motion tracker sensors and machine learning algorithms
CN107443356B (zh) 一种可实时显示机器人形态的系统及方法
CN117340914B (zh) 一种仿人机器人体感控制方法及控制系统
CN112936264B (zh) 一种面向臂手假肢的拟人运动规划方法及系统
Jiang et al. Deep learning based human-robot co-manipulation for a mobile manipulator
CN110877335A (zh) 一种基于混合滤波器自适应无标记机械臂轨迹跟踪方法
CN116394276B (zh) 一种样本生成、模型训练方法、装置及系统
Guo et al. Geometry Based LM of Robot to Imitate Human Motion with Kinect
CN116542310B (zh) 一种机器人的模型训练、运动指令预测方法、装置及系统
Falco et al. Improvement of human hand motion observation by exploiting contact force measurements
CN116901059A (zh) 一种遥操作中的基于姿态传感器的选解方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant