CN113878588A - 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法 - Google Patents

面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法 Download PDF

Info

Publication number
CN113878588A
CN113878588A CN202111336206.8A CN202111336206A CN113878588A CN 113878588 A CN113878588 A CN 113878588A CN 202111336206 A CN202111336206 A CN 202111336206A CN 113878588 A CN113878588 A CN 113878588A
Authority
CN
China
Prior art keywords
data
robot
assembly
tactile
clamping actuator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111336206.8A
Other languages
English (en)
Other versions
CN113878588B (zh
Inventor
楼云江
刘瑞凯
杨先声
黎阿建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN202111336206.8A priority Critical patent/CN113878588B/zh
Publication of CN113878588A publication Critical patent/CN113878588A/zh
Priority to PCT/CN2022/128555 priority patent/WO2023083034A1/zh
Application granted granted Critical
Publication of CN113878588B publication Critical patent/CN113878588B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种基于机器人的柔顺装配方法,其中,在所述机器人末端的夹持执行器上设有触觉传感器,所述方法包括以下步骤:提供张量融合网络模型,其中的训练数据包含来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据;通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过触觉传感器实时采集与所述装配区域对应的触觉数据。本发明公开的基于机器人的柔顺装配方法,系统中利通过因果卷积网络将触觉流降维,再与视觉设备收集的两种图像的表征向量通过张量融合网络模型融合,再将所得到的三维张量展平并输入由多层感知机组成的阻尼点预测器中,迅速判断装配件是否到达插口中的卡扣阻尼点。

Description

面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
技术领域
本发明一般涉及基于机器人的柔顺装配方法,尤其涉及面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法。本发明属于机器人技术领域。
背景技术
在消费电子产品的批量化生产线中,尽管大多数对精度要求不高的装配任务已经由工业机器人实现全自动化,但仍有很多精密装配和柔顺装配工作需要工人手动完成。因此,对于使工业机器人实现高精度、高速度、高柔顺度、高成功率的装配任务的研究一直受到广泛关注。
轴插孔装配是最典型的装配动作之一。机器人的插孔任务主要分为三个步骤:抓取、移动渐进和插装。其中前两个步骤对于操作精度的要求不高,而对于精密小巧且结构脆弱的零件来说,实现快速、柔顺的插装一直有着很高的难度。目前,常见的自动化插装方案包括被动柔顺插装、主动柔顺插装和基于辅助设备的柔顺插装。被动柔顺插装指末端执行机构自身具有一定的柔顺度,以使插头在接触孔的边缘时能够自然顺利地进入孔位。主动柔顺插装则是利用力、力矩传感器检测轴孔接触情况,再反馈给控制器,从而生成对应的调整动作。这种方法可以很大程度上改善被动柔顺插装自动化程度低、没有自我学习能力的缺点。
基于辅助设备的柔顺插装则是目前最为常见的研究方向。对于微小精密的数码产品零部件插装,抓取时的误差会导致插头相对于末端夹持器的位姿不固定,因此单纯的位置控制无法实现顺利的装配。常见的辅助设备包括RGB相机、深度相机、光学动作捕捉设备、惯性测量单元(IMU)、触觉传感器等。这些设备为机器人的控制系统提供了更多的状态信息,或者称之为“模态”。不同类型的模态还可以被融合并加以利用,从而提供更丰富的状态信息。对于人类来说,完成“轴孔插装”需要眼、手的协同操作,因此视觉和力觉经常被同时使用。
然而,对于微小精密的数码产品零部件插装,抓取时的误差会导致插头相对于末端夹持器的位姿不固定,这使得单纯的末端位置伺服无法实现精确、柔顺的装配。视觉传感器极易受到视线阻挡和阴影干扰,而安装于机械臂末端的六维力-力矩传感器所提供的信息较为粗糙,并且无法获得插头与夹持器之间丰富的接触信息反馈(这一点在人类完成插装操作的过程中至关重要)。实际中的轴孔装配很多是由弹簧卡扣固定,这使得插装力需要根据插头是否接触到卡扣的阻尼点来灵活调节。为了分辨插装时的阻力是来自于孔内壁还是阻尼点,需要使用信息更为精细的传感器。因此安装于机器人指尖的触觉传感器能够对整个插装过程起到更重要的作用。
发明内容
本发明提供一种基于机器人的柔顺装配方法,旨在至少解决现有技术中存在的技术问题之一。
本发明的技术方案涉及一种基于机器人触觉反馈的柔顺装配方法,用于卡扣式轴孔装配,其特征在于,在所述机器人末端的夹持执行器上设有触觉传感器,
所述方法包括以下步骤:
S10、提供多个神经网络模型,所述多个神经网络模型至少包括强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据;
S20、通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过触觉传感器实时采集与所述装配区域对应的触觉数据,并且执行压缩和/或滤波处理,以转换成相应的触觉数据表征向量;
S30、将所述触觉数据表征向量与所述机器人的力矩反馈数据融合,并输入至所述强化学习网络模型,以输出所述机器人的预测的动作控制数据;
S40、将所述触觉数据表征向量和所述机器人的装配力度数据通过因果卷积降维后,然后输入至所述张量融合网络模型,并通过多层感知机组成的阻尼点预测器,判断所述夹持执行器是否运到装配阻尼节点;
S50、根据所述夹持执行器是否运到装配阻尼节点的预测结果,通过机器人控制器实施位置控制和力控制,以计算下一个装配运动节点的位姿数据和调整所述夹持执行器的装配力度。
进一步,所述夹持执行器的装配区域被视觉设备拍摄,
所述步骤S10还包括提供强化学习网络模型,其中的训练数据包含来自所述视觉设备的视觉数据;
所述步骤S20还包括通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过视觉设备实时采集与所述装配区域对应的视觉数据,并且执行压缩和/或滤波处理,以转换成相应的视觉数据表征向量。
其中,所述视觉数据包括RGB图像数据和深度图像数据。
进一步,所述步骤S20包括,
S21、所述触觉数据通过卡尔曼滤波器进行滤波,并使用光流法得到机器人沿装配动作方向的触觉流数据;
S22、所述触觉流数据通过因果卷积降低的维度为25个触觉检测点乘以2个触觉检测点得到处理后的触觉数据;
S23、提供变分自编码器,分别多次输入视觉数据到所述变分自编码器进行训练,分别输出所述视觉数据表征向量,所述视觉数据表征向量的维度为16乘以1。
进一步,所述步骤S20包括,
将步骤S23中的所述视觉数据表征向量和步骤S22中处理后的所述触觉数据输入至所述张量融合网络模型,并通过多层感知机组成的阻尼点预测器,判断所述夹持执行器是否运到装配阻尼节点。
进一步,所述步骤S10还包括:
S11、当所述夹持执行器运到装配阻尼节点前,通过机器人控制器实施位置控制和力控制,所述夹持执行器沿装配阻尼节点方向的装配力度为M牛;当所述夹持执行器运到装配阻尼节点后,通过机器人控制器实施位置控制和力控制,所述夹持执行器沿装配阻尼节点方向的装配力度为N牛;
S12、将所述动作反馈数据和力矩反馈数据向机器人控制器输入,机器人控制器输出的动作反馈增益及力矩反馈增益,计算出机器人下一个装配运动节点的装配力度,
其中,所述N>M。
进一步,所述步骤S10还包括:
S13、当所述夹持执行器运到装配阻尼节点前至装配阻尼节点之间的路径分为50个动作步,每个动作步设置多个数据采集点,每个所述数据采集点采集一次视觉数据及触觉数据。
进一步,所述步骤S40还包括,
S14、当所述夹持执行器移动50个动作步未到装配阻尼节点时,所述机器人控制器带动所述夹持执行器到装配初始点复位,重新开始装配动作。
进一步,所述步骤S10还包括:
S15、所述动作步分成10段,共计设置11个数据采集点。
进一步,所述机器人的活动关节的扭矩通过以下雅可比矩阵求解:
Figure BDA0003350569400000031
其中,Kp和Kv分别是比例微分控制参数,KFp和KFi分别是比例积分控制参数,S为机器人的活动关节与扭矩关联之间的关联性判别矩阵;
其中,所述机器人控制器对所述夹持执行器以比例微分控制算法实施位置控制,并且所述机器人控制器对所述夹持执行器以比例积分控制算法实施力控制。
本发明的技术方案还涉及一种计算机可读存储介质,其上储存有程序指令,所述程序指令被处理器执行时实施上述的方法。
本发明的有益效果如下。
1、本发明中的夹持执行器配合触觉传感器,系统中利通过因果卷积网络将触觉流降维,再与视觉设备收集的两种图像的表征向量通过张量融合网络模型融合,再将所得到的三维张量展平并输入由多层感知机组成的阻尼点预测器中,迅速判断装配件是否到达插口中的卡扣阻尼点。
2、结合该系统使用力/位混合控制方法来控制机器人的运动,即把沿插头与插口装配的方向的运动解耦并采用力控制,机器人的五个自由度的运动采用位置控制,在插头到达卡扣阻尼点之前,机器人带动夹持执行器沿z轴装配力度为M牛;在插头到达阻尼点之后,机器人带动夹持执行器装配力度为增大至N牛。对于位置控制的多个个维度,该系统的反馈增益较大来保证精度;而对于力控制的1个维度,该系统的反馈增益较小,从而保证部件装配的柔顺性。
附图说明
图1是根据本发明方法的流程框架图。
图2是根据本发明方法中的机器人运动控制部分的细节框图。
图3是根据本发明实施例中的夹持执行器的布置示意图。
图4是根据本发明实施例中的机器人和装配控制系统的硬件平台。
图5及图6是根据本发明方法中的强化学习结果的曲线示意图。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、方案和效果。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。本文所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。此外,除非另有定义,本文所使用的所有的技术和科学术语与本技术领域的技术人员通常理解的含义相同。本文说明书中所使用的术语只是为了描述具体的实施例,而不是为了限制本发明。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本公开范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。本文所提供的任何以及所有实例或示例性语言(“例如”、“如”等)的使用仅意图更好地说明本发明的实施例,并且除非另外要求,否则不会对本发明的范围施加限制。
参照图1至5,在一些实施例中,根据本发明的一种基于机器人的装配控制方法,其中,用于卡扣式轴孔装配,在所述机器人末端的夹持执行器1上设有触觉传感器2。
参照图3所示,在本发明的典型装配应用实例中,根据本发明的装配系统能够满足卡扣形式的插孔装配。在优选的实施例中,触觉传感器2可以选用5×5的点阵式压感触觉传感器。为了更好的测量被夹持零部件4在外力作用下的“预滑移”,可以在夹持执行器1的指尖和触觉传感器2之间间隔了一个由软胶制成的软胶垫3(约5mm厚),并在触觉传感器的另一侧(即与被夹持零部件4接触一侧)贴敷了一层橡皮膜。参照图4,视觉设备可以采用RGB-D相机,能同时输出RGB图片和深度图片数据。机器人采用串联式多关节机器人,其在末端安装所述夹持执行器1。计算机装置可以独立于机器人控制器,也可以整合到机器人控制器,以执行根据本发明的方法。
参照图1及图2,在一些实施例中,根据本发明的方法包括以下步骤:
S10、提供多个神经网络模型,所述多个神经网络模型至少包括强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据;
S20、通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过触觉传感器实时采集与所述装配区域对应的触觉数据,并且执行压缩和/或滤波处理,以转换成相应的触觉数据表征向量;
S30、将所述触觉数据表征向量与所述机器人的力矩反馈数据融合,并输入至所述强化学习网络模型,以输出所述机器人的预测的动作控制数据;
S40、将所述触觉数据表征向量和所述机器人的装配力度数据通过因果卷积降维后,然后输入至所述张量融合网络模型,并通过多层感知机组成的阻尼点预测器,判断所述夹持执行器是否运到装配阻尼节点;
S50、根据所述夹持执行器是否运到装配阻尼节点的预测结果,通过机器人控制器实施位置控制和力控制,以计算下一个装配运动节点的位姿数据和调整所述夹持执行器的装配力度。
其中,所述视觉数据包括RGB图像数据和深度图像数据。
下面,通过具体的3C部件的装配实例来描述上述步骤的具体实施例。在这些实例中,将USB-C充电线插头插装在插口的装配过程:夹持执行器2夹持USB-C充电线插头,USB-C插口被固定,触觉传感器收集夹持执行器2夹持USB-C充电线插头的压力触觉数据,视觉设备收集USB-C充电线插头(下称插头)及USB-C插口(下称插口)的视觉数据。
对于步骤S10的具体实施方式
训练数据包含来自视觉设备的视觉数据,该实施例的视觉设备为相机,该相机获取插头及插口的视觉数据图片,即是插头与插口的共在的RGB图像数据及深度图像数据。结合图1结合图3所示,来自所述触觉传感器的触觉数据,该实施例为5×5的点阵式压感触觉传感器,收集夹持执行器夹持插头的压力触觉数据。
步骤S10还具体包括以下步骤:读取机器人末端的实时六维笛卡尔空间位姿,并输入强化学习网络模型对其进行训练,同时采集装配区域在每个装配动作步的RGB图片、深度图片和触觉数据。实施例的机器人末端的夹持执行器的实时笛卡尔空间位姿作为状态输入,插头及插口的共在的RGB图像数据、深度图像数据及夹持插头的压力触觉数据在多个动作位置被收集后,输入强化学习网络模型对其进行训练。当夹持执行器与装配终点的距离越近时、或夹持执行器插入装配零件中的深度越深时,所述强化学习网络模型的奖励函数相应增加。实施例中强化学习网络模型的奖励函数根据插头与插口的接近程度、插头插入插口的深度的增加而相应增加。
步骤S10中,结合机器人平台的强化学习网络模型训练过程还包括以下步骤:
S11、当所述夹持执行器运到装配阻尼节点前,通过机器人控制器实施位置控制和力控制,所述夹持执行器沿装配阻尼节点方向的装配力度为M牛;当所述夹持执行器运到装配阻尼节点后,通过机器人控制器实施位置控制和力控制,所述夹持执行器沿装配阻尼节点方向的装配力度为N牛,其中,N>M。
S12、将所述动作反馈数据和力矩反馈数据向机器人控制器输入,机器人控制器输出的动作反馈增益及力矩反馈增益,计算出机器人下一个装配运动节点的装配力度。
如图2,结合上述实施例,采用力/位混合控制方法来控制机器人的运动,即把沿插头与插口装配的方向(即图3和图4中的竖直方向或z轴方向)的运动解耦并采用力控制,机器人的五个自由度(x,y,R,P,Y)的运动采用位置控制。在插头到达卡扣阻尼点之前,机器人带动夹持执行器沿z轴装配力度为M=2牛;在插头到达阻尼点之后,机器人带动夹持执行器沿z轴装配力度为增大至N=12牛。对于位置控制的5个维度,该系统的反馈增益较大来保证精度;而对于力控制的1个维度,该系统的反馈增益较小,从而保证部件装配的柔顺性。
S13、当所述夹持执行器运到装配阻尼节点前至装配阻尼节点之间的路径分为50个动作步,每个动作步设置多个数据采集点,每个所述数据采集点采集一次视觉数据及触觉数据。
S14、当所述夹持执行器移动50个动作步未到装配阻尼节点时,所述机器人控制器带动所述夹持执行器到装配初始点复位,重新开始装配动作。
S15、所述动作步分成10段,共计设置11个数据采集点。
结合上述实施例,针对步骤S13至S15,机器人的一次完整的插口试验称为一个“回合”,每个回合由不超过50个“动作步”组成。如果机器人走满50个动作步依然没有完成插孔任务,即判定失败并复位至初始点。每个动作步又分成10段,共计11个“路点”。机器人带动夹持执行器将依次走过这些路点以完成一个动作步。对于插头及插口的RGB图像和深度图像,每个动作步采集一次数据;对于触觉数据,每个路点采集一次数据。
具体地,夹持执行器每个装配动作步中的RGB图像数据及深度图像数据作以下处理:
对于所述夹持执行器每个装配动作步中最后一个路点,将所述RGB图像数据裁剪成128像素×128像素,并处理为灰度图。随后通过RGB图片编码器压缩输出RGB表征向量。
对于所述夹持执行器每个装配动作步中最后一个路点,将所述深度图像数据裁剪成128像素×128像素,并归一化处理。随后通过深度图片编码器压缩输出深度表征向量。
如图1,结合上述实施例,插头及插口通过相机输出的RGB图片和深度图片围绕装配区域裁剪成128×128的尺寸,并将RGB图像转换成灰度图,以减少数据量和处理时间。
对于步骤S20的具体实施方式
在一个实施例中,夹持执行器携带插头位于插口正上方约1mm处,取该点为装配初始点,机器人通过本身的系统(比如ROS系统)读取夹持执行器在这一初始点的笛卡尔空间六维位姿向量。
步骤S20还具体包括以下步骤:
S21、所述触觉数据通过卡尔曼滤波器进行滤波,并使用光流法(Farneback方法)得到机器人沿装配动作方向的触觉流数据。如图1,结合上述实施例,利用卡尔曼滤波器将收集到的触觉信息滤波,并类比光流法,使用Farneback方法计算每个动作步中夹持执行器x,y方向上的触觉流(维度为25(5×5个检测点)×2(x、y轴两个方向)×10(每两个连续路点的触觉信息计算出一个触觉流信息)。
S22、所述触觉流数据通过因果卷积降低的维度为25个触觉检测点乘以2个触觉检测点得到处理后的触觉数据。
S23、提供变分自编码器,分别多次输入已处理的灰度图、已处理的深度图片到所述变分自编码器进行训练,分别输出RGB表征向量的维度为16×1、输出深度表征向量的维度为16×1。结合上述实施例,插头及插口装配的灰度图及深度图,采用变分自编码器(VAE)训练这两种图片,从而将图片编码压缩成16×1的“表征向量”,并保证其中涵盖了原始图像的绝大部分信息。
对于步骤S30和S40的具体实施方式
将所述触觉数据表征向量和所述机器人的装配力度数据通过因果卷积降维后,然后输入至所述张量融合网络模型,并通过多层感知机组成的阻尼点预测器,判断所述夹持执行器是否运到装配阻尼节点。
更加具体地,对于每个动作步,通过因果卷积网络将触觉流降维至(即维度25×2)的尺寸,再与步骤S20中两种图像的表征向量(即两个16×1的向量)通过张量融合网络模型(TFN)融合(即对每个模态向量的末端添加元素“1”后进行克罗内克积,所得到的结果将同时包含这三种模态的单一信息和任意组合信息),再将所得到的三维张量展平并输入由多层感知机组成的阻尼点预测器中,用于预测插头是否到达插口中的卡扣阻尼点。
结合上述实施例,插头及出口提取出每个动作步中最后一个路点的5动作检测点×5动作检测点的触觉数据,将其利用高斯卷积降维(即维度为9×1),与两种图像的表征向量直接拼接融合(即维度为16+16+9),将得到的表征向量(即维度为41×1)重新输入到强化学习网络,并生成夹持执行器的动作值(五个动作方向x,y,R,P,Y)。在一些实施例中,如图4所示的机器人的6个活动关节的扭矩通过以下雅可比矩阵求解:
Figure BDA0003350569400000081
其中,Kp,Kv,KFp和KFi分别是比例微分(PD)和比例积分(PI)的控制参数,S为判别矩阵S=diagS=diag(1,1,0,1,1,1),即位控维度对应的值为1,力控维度对应的值为0。
所述机器人控制器通过PD控制算法实施位置控制;所述机器人控制器通过PI控制算法实施力控制。
参照图5和图6所示的据本发明方法中的强化学习结果的曲线示意图,采用融合了RGB图像数据+深度图像数据+F/T力传感器数据+机器人力矩反馈数据所训练的网络模型,随着所测试的回合(episode)数更多的时候,能获得的报酬(reward)更多(即是成功完成预期装配效果的次数更多),并且装配操作的动作步(step)较少。即是说,融合视、触觉和强化学习网络模型所实现的装配方法,能达到更优的机器人精密装配效果。
最终结果显示,依靠视觉和触觉融合的机器人USB-C插接成功率最高达到了99%,证明了根据本发明的装配方法的有效性。
并且其中,与所述基于机器人的装配控制系统连接的计算机装置,所述计算机装置包括根据上述的基于机器人的装配控制方法计算机可读存储介质。应当认识到,本发明实施例中的方法步骤可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还可以包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。

Claims (10)

1.一种基于机器人触觉反馈的柔顺装配方法,用于卡扣式轴孔装配,其特征在于,在所述机器人末端的夹持执行器上设有触觉传感器,
并且其特征在于,所述方法包括以下步骤:
S10、提供多个神经网络模型,所述多个神经网络模型至少包括强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据;
S20、通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过触觉传感器实时采集与所述装配区域对应的触觉数据,并且执行压缩和/或滤波处理,以转换成相应的触觉数据表征向量;
S30、将所述触觉数据表征向量与所述机器人的力矩反馈数据融合,并输入至所述强化学习网络模型,以输出所述机器人的预测的动作控制数据;
S40、将所述触觉数据表征向量和所述机器人的装配力度数据通过因果卷积降维后,然后输入至所述张量融合网络模型,并通过多层感知机组成的阻尼点预测器,判断所述夹持执行器是否运到装配阻尼节点;
S50、根据所述夹持执行器是否运到装配阻尼节点的预测结果,通过机器人控制器实施位置控制和力控制,以计算下一个装配运动节点的位姿数据和调整所述夹持执行器的装配力度。
2.根据权利要求1所述的方法,其中,所述夹持执行器的装配区域被视觉设备拍摄,
所述步骤S10还包括提供强化学习网络模型,其中的训练数据包含来自所述视觉设备的视觉数据;
所述步骤S20还包括通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过视觉设备实时采集与所述装配区域对应的视觉数据,并且执行压缩和/或滤波处理,以转换成相应的视觉数据表征向量。
其中,所述视觉数据包括RGB图像数据和深度图像数据。
3.根据权利要求1所述的方法,其中,所述步骤S20包括,
S21、所述触觉数据通过卡尔曼滤波器进行滤波,并使用光流法得到机器人沿装配动作方向的触觉流数据;
S22、所述触觉流数据通过因果卷积降低的维度为25个触觉检测点乘以2个触觉检测点得到处理后的触觉数据;
S23、提供变分自编码器,分别多次输入视觉数据到所述变分自编码器进行训练,分别输出所述视觉数据表征向量,所述视觉数据表征向量的维度为16乘以1。
4.根据权利要求3所述的方法,其中,所述步骤S20包括,
将步骤S23中的所述视觉数据表征向量和步骤S22中处理后的所述触觉数据输入至所述张量融合网络模型,并通过多层感知机组成的阻尼点预测器,判断所述夹持执行器是否运到装配阻尼节点。
5.根据权利要求1所述的方法,其中,所述步骤S10还包括:
S11、当所述夹持执行器运到装配阻尼节点前,通过机器人控制器实施位置控制和力控制,所述夹持执行器沿装配阻尼节点方向的装配力度为M牛;当所述夹持执行器运到装配阻尼节点后,通过机器人控制器实施位置控制和力控制,所述夹持执行器沿装配阻尼节点方向的装配力度为N牛;
S12、将所述动作反馈数据和力矩反馈数据向机器人控制器输入,机器人控制器输出的动作反馈增益及力矩反馈增益,计算出机器人下一个装配运动节点的装配力度,
其中,所述N>M。
6.根据权利要求5所述的方法,其中,所述步骤S10还包括:
S13、当所述夹持执行器运到装配阻尼节点前至装配阻尼节点之间的路径分为50个动作步,每个动作步设置多个数据采集点,每个所述数据采集点采集一次视觉数据及触觉数据。
7.根据权利要求6所述的方法,其特征在于,所述步骤S10还包括,
S14、当所述夹持执行器移动50个动作步未到装配阻尼节点时,所述机器人控制器带动所述夹持执行器到装配初始点复位,重新开始装配动作。
8.根据权利要求7所述的方法,其中,所述步骤S10还包括:
S15、所述动作步分成10段,共计设置11个数据采集点。
9.根据权利要求1所述的方法,其特征在于,
所述机器人的活动关节的扭矩通过以下雅可比矩阵求解:
Figure FDA0003350569390000021
其中,Kp和Kv分别是比例微分控制参数,KFp和KFi分别是比例积分控制参数,S为机器人的活动关节与扭矩关联之间的关联性判别矩阵;
其中,所述机器人控制器对所述夹持执行器以比例微分控制算法实施位置控制,并且所述机器人控制器对所述夹持执行器以比例积分控制算法实施力控制。
10.一种计算机可读存储介质,其上储存有程序指令,所述程序指令被处理器执行时实施如权利要求1至9中任一项所述的方法。
CN202111336206.8A 2021-11-12 2021-11-12 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法 Active CN113878588B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111336206.8A CN113878588B (zh) 2021-11-12 2021-11-12 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
PCT/CN2022/128555 WO2023083034A1 (zh) 2021-11-12 2022-10-31 视触觉融合的机器人精密装配控制方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111336206.8A CN113878588B (zh) 2021-11-12 2021-11-12 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法

Publications (2)

Publication Number Publication Date
CN113878588A true CN113878588A (zh) 2022-01-04
CN113878588B CN113878588B (zh) 2023-03-31

Family

ID=79017331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111336206.8A Active CN113878588B (zh) 2021-11-12 2021-11-12 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法

Country Status (1)

Country Link
CN (1) CN113878588B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114454174A (zh) * 2022-03-08 2022-05-10 江南大学 机械臂动作捕捉方法、介质、电子设备及系统
WO2023083034A1 (zh) * 2021-11-12 2023-05-19 哈尔滨工业大学(深圳) 视触觉融合的机器人精密装配控制方法及系统

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0283547A2 (en) * 1987-02-20 1988-09-28 Research Development Corporation of Japan Precision automatic assembly apparatus, and assembly method using same
JP2007128318A (ja) * 2005-11-04 2007-05-24 Japan Science & Technology Agency 状態推定方法、状態推定装置、状態推定システム及びコンピュータプログラム
US20090228408A1 (en) * 2008-03-08 2009-09-10 Tokyo Electron Limited Autonomous adaptive semiconductor manufacturing
DE102014114272A1 (de) * 2013-10-04 2015-04-09 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System und Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
WO2016201303A1 (en) * 2015-06-12 2016-12-15 The Johns Hopkins University Cooperatively-controlled surgical robotic system with redundant force sensing
CN106335057A (zh) * 2016-09-27 2017-01-18 东南大学 一种基于实时力控的装配机器人全空间柔顺插孔控制方法
CN109543823A (zh) * 2018-11-30 2019-03-29 山东大学 一种基于多模信息描述的柔性装配系统及方法
US20190137954A1 (en) * 2017-11-09 2019-05-09 International Business Machines Corporation Decomposed perturbation approach using memory based learning for compliant assembly tasks
CN109940605A (zh) * 2019-01-29 2019-06-28 中国工程物理研究院激光聚变研究中心 融合三维视觉与接触力分析的柔顺装配系统及方法
CN110363214A (zh) * 2019-05-31 2019-10-22 浙江工业大学 一种基于gwa-svm的机器人装配的接触状态识别方法
US20200023520A1 (en) * 2018-07-19 2020-01-23 International Business Machines Corporation Perform peg-in-hole task with unknown tilt
CN111444954A (zh) * 2020-03-24 2020-07-24 广东省智能制造研究所 一种基于多模态感知与学习的机器人自主装配方法
CN111633657A (zh) * 2020-06-12 2020-09-08 山东大学 一种基于装配状态认知的机器人柔性装配方法及系统
WO2020207219A1 (zh) * 2019-04-11 2020-10-15 清华大学 一种利用环境预测优化非模型机器人多轴孔装配控制方法
CN111881772A (zh) * 2020-07-06 2020-11-03 上海交通大学 基于深度强化学习的多机械臂协同装配方法和系统
EP3749491A1 (en) * 2018-02-06 2020-12-16 ABB Schweiz AG Assembling parts in an assembly line
CN112631128A (zh) * 2020-11-27 2021-04-09 广东省科学院智能制造研究所 一种多模异构信息融合的机器人装配技能学习方法及系统
CN112847235A (zh) * 2020-12-25 2021-05-28 山东大学 基于深度强化学习的机器人分阶力引导装配方法及系统
US20210316453A1 (en) * 2020-04-14 2021-10-14 Fanuc Corporation Multi center impedance control
WO2021208230A1 (zh) * 2020-04-15 2021-10-21 上海工程技术大学 智能装配控制系统
EP3904015A1 (en) * 2020-05-01 2021-11-03 ABB Schweiz AG System and method for setting up a robotic assembly operation
CN113747682A (zh) * 2021-09-07 2021-12-03 山东大学 一种机器人精密装配系统及方法

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0283547A2 (en) * 1987-02-20 1988-09-28 Research Development Corporation of Japan Precision automatic assembly apparatus, and assembly method using same
JP2007128318A (ja) * 2005-11-04 2007-05-24 Japan Science & Technology Agency 状態推定方法、状態推定装置、状態推定システム及びコンピュータプログラム
US20090228408A1 (en) * 2008-03-08 2009-09-10 Tokyo Electron Limited Autonomous adaptive semiconductor manufacturing
DE102014114272A1 (de) * 2013-10-04 2015-04-09 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) System und Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
WO2016201303A1 (en) * 2015-06-12 2016-12-15 The Johns Hopkins University Cooperatively-controlled surgical robotic system with redundant force sensing
CN106335057A (zh) * 2016-09-27 2017-01-18 东南大学 一种基于实时力控的装配机器人全空间柔顺插孔控制方法
US20190137954A1 (en) * 2017-11-09 2019-05-09 International Business Machines Corporation Decomposed perturbation approach using memory based learning for compliant assembly tasks
EP3749491A1 (en) * 2018-02-06 2020-12-16 ABB Schweiz AG Assembling parts in an assembly line
US20200023520A1 (en) * 2018-07-19 2020-01-23 International Business Machines Corporation Perform peg-in-hole task with unknown tilt
CN109543823A (zh) * 2018-11-30 2019-03-29 山东大学 一种基于多模信息描述的柔性装配系统及方法
CN109940605A (zh) * 2019-01-29 2019-06-28 中国工程物理研究院激光聚变研究中心 融合三维视觉与接触力分析的柔顺装配系统及方法
WO2020207219A1 (zh) * 2019-04-11 2020-10-15 清华大学 一种利用环境预测优化非模型机器人多轴孔装配控制方法
CN110363214A (zh) * 2019-05-31 2019-10-22 浙江工业大学 一种基于gwa-svm的机器人装配的接触状态识别方法
CN111444954A (zh) * 2020-03-24 2020-07-24 广东省智能制造研究所 一种基于多模态感知与学习的机器人自主装配方法
US20210316453A1 (en) * 2020-04-14 2021-10-14 Fanuc Corporation Multi center impedance control
WO2021208230A1 (zh) * 2020-04-15 2021-10-21 上海工程技术大学 智能装配控制系统
EP3904015A1 (en) * 2020-05-01 2021-11-03 ABB Schweiz AG System and method for setting up a robotic assembly operation
CN111633657A (zh) * 2020-06-12 2020-09-08 山东大学 一种基于装配状态认知的机器人柔性装配方法及系统
CN111881772A (zh) * 2020-07-06 2020-11-03 上海交通大学 基于深度强化学习的多机械臂协同装配方法和系统
CN112631128A (zh) * 2020-11-27 2021-04-09 广东省科学院智能制造研究所 一种多模异构信息融合的机器人装配技能学习方法及系统
CN112847235A (zh) * 2020-12-25 2021-05-28 山东大学 基于深度强化学习的机器人分阶力引导装配方法及系统
CN113747682A (zh) * 2021-09-07 2021-12-03 山东大学 一种机器人精密装配系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AJIAN LI: "Reinforcement Learning Straregy Based on Multimodal Representations for High-Precision Assembly Tasks", 《INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTICS AND APPLICATIONS》 *
喻洋等: "基于柔顺控制的机器人装配技术", 《北京邮电大学学报》 *
董浩: "轴孔装配工业机器人柔顺控制算法研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023083034A1 (zh) * 2021-11-12 2023-05-19 哈尔滨工业大学(深圳) 视触觉融合的机器人精密装配控制方法及系统
CN114454174A (zh) * 2022-03-08 2022-05-10 江南大学 机械臂动作捕捉方法、介质、电子设备及系统

Also Published As

Publication number Publication date
CN113878588B (zh) 2023-03-31

Similar Documents

Publication Publication Date Title
CN110573308B (zh) 用于机器人设备的空间编程的基于计算机的方法及系统
Asfour et al. The karlsruhe humanoid head
Magrini et al. Estimation of contact forces using a virtual force sensor
CN113878588B (zh) 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
JP6180086B2 (ja) 情報処理装置及び情報処理方法
KR101988937B1 (ko) 카메라와 로봇 핸드의 캘리브레이션 방법 및 장치
US20170249561A1 (en) Robot learning via human-demonstration of tasks with force and position objectives
CN113927602B (zh) 基于视、触觉融合的机器人精密装配控制方法及系统
CN113379849B (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
JP2011067941A (ja) 人間型ロボットのための視覚認知システムおよび方法
US20220212340A1 (en) Control device, control system, mechanical apparatus system, and controlling method
CN113954076B (zh) 基于跨模态预测装配场景的机器人精密装配方法
CN113785303A (zh) 借助于机器人引导的相机来机器学习对象识别
CN113412178B (zh) 机器人控制装置、机器人系统以及机器人控制方法
CN113386123A (zh) 控制装置、机器人、学习装置、机器人系统和学习方法
KR20190048589A (ko) 가상 현실 기반 양팔로봇 교시 장치 및 방법
US20220335622A1 (en) Device and method for training a neural network for controlling a robot for an inserting task
US20220331964A1 (en) Device and method for controlling a robot to insert an object into an insertion
CN113103230A (zh) 一种基于处置机器人遥操作的人机交互系统及方法
Jha et al. Imitation and supervised learning of compliance for robotic assembly
WO2023083034A1 (zh) 视触觉融合的机器人精密装配控制方法及系统
CN117103277A (zh) 一种基于多模态数据融合的机械手臂感知方法
Graefe et al. The sensor-control Jacobian as a basis for controlling calibration-free robots
Mühlbauer et al. Mixture of experts on Riemannian manifolds for visual-servoing fixtures
Hart et al. Natural task decomposition with intrinsic potential fields

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant