CN113696186B - 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 - Google Patents
复杂光照条件下基于视触融合的机械臂自主移动抓取方法 Download PDFInfo
- Publication number
- CN113696186B CN113696186B CN202111177462.7A CN202111177462A CN113696186B CN 113696186 B CN113696186 B CN 113696186B CN 202111177462 A CN202111177462 A CN 202111177462A CN 113696186 B CN113696186 B CN 113696186B
- Authority
- CN
- China
- Prior art keywords
- visual
- grabbing
- information
- mechanical arm
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明公开了复杂光照条件下基于视触融合的机械臂自主移动抓取方法,主要包括对目标位置的趋近控制和对环境信息的反馈控制。该方法在复杂光照条件下,加权融合预选区域的可见光与深度图像并基于深度神经网络完成对目标物体的识别与定位,并驱动移动机械臂不断趋近目标物体;另外根据传感器模块与外界环境及目标物体的接触力信息,调整机械臂位姿;同时融合目标物体的视觉与触觉信息,选取目标物体的最佳抓取位姿与合适的抓取力大小。该方法提升了物体定位精度与抓取准确率,并有效防止了机械臂的碰撞损坏与失稳,且减少了被抓物体的有害形变。
Description
技术领域
本发明属于机器人控制技术领域,具体涉及复杂光照条件下基于视触融合的机械臂自主移动抓取方法。
背景技术
近年来,随着传感器技术、导航技术及深度学习技术的快速发展,机器人技术也取得了长足的进步,其中移动机械臂技术也逐渐广泛应用在自动巡检、农业采摘、仓储分拣等领域。移动机械臂具有自主导航、自主作业能力,相比传统的工业机械臂有更高的灵活性和机动性,能在复杂环境中代替人类自主完成一定的任务。
在相关技术中,难点往往在于目标物体的识别与定位;近几年深度学习得到了快速的发展,涌现出越来越多轻量级、鲁棒性强、分类性能优秀的网络模型。一般在拥有足够的训练样本的情况下,容易获得满足作业要求的网络结构,但是性能依旧会受到使用场景的环境影响,尤其是光照条件。而在后续的作业中,场景环境变化可能较大,同时需要较为精准的目标物体定位,以便进行进一步的操作,如抓取目标物体、旋转开关、分合闸刀等。因此如何复杂光照条件下准确获得目标物体的实际空间位置进行精准操作是一个亟需解决的任务。
另外常见的移动抓取方案均主要利用视觉信息,缺少对环境接触信息的有效利用;区别于视觉信息,触觉信息不受光照等条件影响,同时触觉信息等是对视觉的补充,能反映机器人与外界环境的交互情况;而随着传感器技术的发展,越来越多精密的触觉传感器、六维力传感器等得到了广泛的应用;通过这些传感器信息能有效对目标物体的刚度、形状、重量等进行有效判断,如何利用这些信息帮助机械臂更加友好、柔顺地与目标物体进行交互亦是一个具有挑战的任务。
发明内容
为解决上述问题,本发明公开了一种复杂光照条件下基于视触融合的机械臂自主移动抓取方法,解决了现有技术不能获取目标物体精确三维空间位置,从而实现精准操作的问题;同时引入多传感器模块,提高了机械臂对外界环境的感知能力与友好操作能力。
为达到上述目的,本发明的技术方案如下:
复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其所使用系统包括通讯模块、图像采集模块、移动抓取模块、力传感模块;
进一步地,通讯模块包括安装于远程控制台的上位机系统与安装于移动平台的工控机系统,两系统通过WiFi连接,采用SSH通讯协议;上位机向工控机发送控制指令,工控机向上位机传输所采集的图像与深度信息,以及移动平台与机械臂的位姿信息。
进一步地,图像采集模块包括:安装于移动平台上的深度相机,用于采集所在场景的全局深度与彩色信息;安装于机械臂末端的深度相机,用于采集所在场景的局部深度与彩色信息;两个相机均通过usb3.0接口将数据传输到工控机。
进一步地,移动抓取模块包括:移动平台与7自由度机械臂及其控制器;移动平台搭载激光雷达、超声波模块、红外传感器,其中激光雷达用于环境建图,超声波模块用于导航过程中的避障,红外传感器用于导航过程中的防跌落;机械臂的控制器接收目标位姿与障碍物信息,进行逆运动学解算,规划机械臂运动路径,执行抓取任务。
进一步地,力传感模块包括:六维力传感器,安装与机械臂末端与夹爪之间,用于测量机械臂与环境的接触力,通过误差计算修正调整机械臂末端与环境末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳;24维电容式触觉传感器阵列,安装于夹爪3个手指指尖部分,将手部压力值的变化信息实时反馈到工控机,进行物体软硬程度的识别,从而控制机械爪的抓取力度,可以有效减少被抓取物体的有害形变,且避免机械爪手指电机发生过载。
进一步地,该发明方法包括以下步骤:
步骤S1:在复杂光照条件下,引入受光照变化影响小的深度信息,结合可见光信息,识别目标物体的大致位置,发送控制指令;
步骤S2:移动平台接收到指令后,并将物体的坐标系转到所述移动平台坐标系,移动平台导航到目标物体附近;
步骤S3:再次启动移动平台上的深度相机获取目标物体的位姿信息,并将物体的坐标转到机械臂基坐标系,控制机械臂移动到目标物体附近;
步骤S4:启动机械臂末端的深度相机获取目标物体的位姿信息,并将物体的坐标系转到机械臂基坐标系,控制机械臂移动到目标点;
步骤S5:根据机械臂末端六维力传感器与外界环境的接触力信息,调整机械臂位姿;
步骤S6:利用机械爪指尖的传感器采集触觉信息,融合视觉信息选取物体的最佳抓取位姿,并判定最佳的抓取力;
步骤S7:根据确定的抓取位姿与抓取力,完成对目标物体的精度抓取。
进一步地,所述步骤S1、S2、S3、S4中获取目标物体的位姿信息包括以下步骤:
(a)将所获深度帧依次进行抽取滤波、空间滤波、时间滤波、孔填充过滤,提高深度数据质量并降低噪声水平,所获深度帧根据红外立体声原理获得,能有效降低光照的影响;
(b)将深度相机所获得深度图像IDepth与彩色图像IRGB对齐;
(c)利用轻量级神经网络获得预选取物体的类别与区域ROI;
(d)提取深度图像IDepthROI区域深度信息特征获得深度显著图DS;
(e)提取可见光图像IVisual亮度与纹理特征获得可见光显著图VS;
(f)将DS、VS加权获得融合的显著性图,突出目标区域并减弱光照的影响;
(g)根据获得显著性图再次对目标物体进行精准分割和定位,获取图像质心坐标;
(h)将所获二维质心坐标转为实际的三维空间坐标,其转换公式如下:
进一步地,所述步骤S5利用六维力传感器测量机械臂与环境的接触力,通过误差计算修正调整机械臂末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳。
进一步地,所述步骤S6采用3个24维电容式传感器阵列采集触觉信息,并融合视觉信息判断物体最佳抓取点与抓取力大小,其步骤包括:
步骤S61:基于视触点云融合的最佳抓取位姿选取;
步骤S62:基于视觉纹理与力触觉的物体刚度与抓取力判断。
进一步地,所述步骤S61基于视触点云融合的最佳抓取位姿选取包括:
步骤S611:机械爪根据预定的探索程序对物体进行触摸感知;
步骤S612:当传感器单元读数超过设定阈值,则判定机械爪与物体发生了接触,并记录相关数据:接触单元位置坐标p(x,y,z)和法向量n=(nx,ny,nz),机械臂关节传感器读数θarm={θ1,…θ7}和机械爪关节fi传感器读数
步骤S613:将相关数据转换到机器人基坐标系,获得某个接触点的信息Pj=[locj,Nj]:
其中Tarm是机械臂末端到基坐标系得变换矩阵,Thand是机械爪到机械臂末端坐标系的变换矩阵;
步骤S614:经过完整的探索程序,获得j个接触点数据,生成该物体的点云集PChaptic={P1,…Pj};
步骤S615:采集视觉点云,采用直通滤波与随机采样一致算法RANSAC对目标点云进行分割、采用统计滤波SOR去除离群噪点、采用移动最小二乘法MLS平滑点云,最终获取目标物体的视觉点云PCvisual;
步骤S616:采用ICP算法对视触点云进行配准;
步骤S617:将配准的点云信息输入训练好的3D卷积神经网络,获得目标物体的最佳抓取位姿G=((x,y,z),w,θ);
其中(x,y,z)是最佳抓取点的三维坐标,w是机械爪的预抓取开合宽度,θ是与z轴的偏转角。
进一步地,所述步骤S62基于视觉纹理与力触觉的物体刚度与抓取力判断包括:
步骤S621:机械爪以步骤S61确定的抓取位姿对物体进行抓取,触觉传感器开始采集数据S={n1,n2,…n72};
步骤S622:位于末端的相机采集目标物体视觉纹理信息;
步骤S623:构建多模态融合网络:对触觉信息与视觉纹理信息分别利用CNN进行特征提取,再对提取的特征进行融合,并在此基础上构建分类网络,评估目标物体的刚度等级R;
步骤S624:根据物体刚度确定夹取力阈值,并采用PD方法实现对机械爪的控制,具体方式如下:
Fg=[Fg1,Fg2,…Fgm]
其中,θ为机械爪手指电机转动角增量,Kp、Kd为比例参数和微分参数,Fg为夹取力阈值,由刚度等级R确定;
通过控制机械爪的抓取力度,可以有效减少被抓取物体的有害形变,且避免机械爪手指电机发生过载。
本发明的有益效果是:
1)本发明基于轻量级神经网络识别目标物体的类别并初步选取目标所在区域,根据所选区域的深度与可见光信息加权获得目标显著图,进一步识别获得更精准的目标物体边界,从而确定物体质心;再经过多次深度帧滤波,提高深度信息数据质量并降低噪声水平,最终提高物体定位精度与抓取准确率;
2)本发明基于传感器模块测量机械臂与外界环境的接触力,能够修正调整机械臂末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳;另外通过机械爪触觉传感器阵列的测量,同时融合视觉信息,选择最佳抓取位姿与抓取力,能有效减少被抓取物体的有害形变且避免机械爪手指电机发生过载。
附图说明
图1为本发明实施例的主要环节示意图。
图2为本发明实施例的系统结构图。
图3为本发明实施例的方法流程图。
图4为本发明实施例的物体识别与定位流程图。
图5为本发明实施例的最佳位姿选取示意图。
图6为本发明实施例的物体刚度与抓取力判断示意图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
本发明的实施例提供了复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其总体系统框图如图1所示,包括:
通讯模块,用于控制指令、图像与位姿信息的传输,包括安装于远程控制台的上位机系统与安装于移动平台的工控机系统,两系统通过WiFi连接,采用SSH通讯协议。上位机向工控机发送控制指令,工控机向上位机传输所采集的图像与深度信息,以及移动平台与机械臂的位姿信息。上位机系统为Windows10,同时具有可视化图形界面,用于显示深度相机采集的图像信息及移动机械臂的位姿信息。工控机系统为Ubuntu16.04,搭配ROS框架,能进行进一步开发,且连接着下层的运动设备控制器、外围传感设备和拓展执行部件,同时提供各传感器及拓展执行部件的接口函数,方便移动平台的编程。另外该工控机上装有有线、无线网卡及蓝牙设备,能够连接外部网络,与外部设备进行通信或者远程控制。
图像采集模块,用于采集所在场景的深度与彩色信息,包括安装于移动平台上的深度相机与安装于机械臂末端的深度相机。两块相机均为Realsense D435,且通过usb3.0接口将数据传输到工控机。
移动抓取模块,用于趋近和抓取目标物体,包括移动平台和7自由度机械臂及其控制器。移动平台搭载激光雷达、超声波模块、红外传感器,其中激光雷达用于环境建图,超声波模块用于导航过程中的避障,红外传感器用于导航过程中的防跌落;机械臂的控制器接收目标位姿与障碍物信息,进行逆运动学解算,规划机械臂运动路径,执行抓取任务。
力传感模块,用于感知外界环境及目标物体的信息,包括六维力传感器和24维触觉传感器阵列。六维力传感器,安装与机械臂末端与夹爪之间,用于测量机械臂与环境的接触力,通过误差计算修正调整机械臂末端与环境末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳;24维电容式触觉传感器阵列,安装于夹爪3个手指指尖部分,将手部压力值的变化信息实时反馈到工控机,进行物体软硬程度的识别,从而控制机械爪的抓取力度,可以有效减少被抓取物体的有害形变,且避免机械爪手指电机发生过载。
本发明实施例处理过程主要分为两个环节,如图2所示,包括:
环境感知环节,包括物体识别与定位、碰撞检测、物体软硬度识别。在这个环节,图像采集模块采集场景的深度与彩色信息,并通过深度神经网络完成对目标物体类别的判断与初始有效区域的选取,最后再结合深度数据进一步选择有效区域并计算目标的三维坐标;碰撞检测主要通过力传感模块中的六维力传感器检测机械臂与环境的接触,调整机械臂的位姿,防止机械臂与场景障碍过度碰撞导致机身受损或失稳;物体软硬度识别主要通过力传感模块中的触觉传感器阵列感知机械爪与目标物体的接触信息,并融合视觉纹理信息,从而判断物体的软硬程度,调整机械爪的控制参数。
抓取规划环节,包括路径规划、位置调整、运动学解算、电机控制。在这个环节,根据目标物体位置不断调整移动机械臂位置,使机械爪不断趋近目标物体,同时进行有效的运动学解算与路径规划,防止移动机械臂发生碰撞;另外融合视觉与触觉信息,选取物体的最佳抓取位姿与合适抓取力,减少被抓取物体的有害形变。
进一步地,本发明实施例的主要流程如图3所示,以下结合图3对实施例步骤进行详细阐述:
步骤S1:在复杂光照条件下,引入受光照变化影响小的深度信息,结合可见光信息,识别目标物体的大致位置,发送控制指令。
进一步地,其中物体识别定位的流程如图4所示,以下结合图4对步骤S1进行详细说明:
步骤S11:开启位于移动平台上的深度相机,开始采集图像;
步骤S12:将所获深度帧依次进行抽取滤波、空间滤波、时间滤波、孔填充过滤,提高深度数据质量并降低噪声水平,所获深度帧根据红外立体声原理获得,能有效降低光照的影响;
步骤S13:将深度相机所获得深度图像IDepth与彩色图像IRGB对齐;
步骤S14:利用轻量级神经网络获得预选取物体的类别与区域ROI;
步骤S15:提取深度图像IDepthROI区域深度信息特征获得深度显著图DS;
步骤S16:提取可见光图像IVisual亮度与纹理特征获得可见光显著图VS;
步骤S17:将DS、VS加权获得融合的显著性图,突出目标区域并减弱光照的影响;
步骤S18:根据获得显著性图再次对目标物体进行精准分割和定位,获取图像质心坐标;
步骤S19:将所获二维质心坐标转为实际的三维空间坐标,其转换公式如下:
步骤S2:移动平台接收到指令后,并将物体的坐标系转到所述移动平台坐标系,移动平台导航到目标物体附近;
步骤S3:再次启动移动平台上的深度相机获取目标物体的位姿信息,并将物体的坐标转到机械臂基坐标系,控制机械臂移动到目标物体附近,其中识别与定位目标物体的步骤与S12-S19相同;
步骤S4:启动机械臂末端的深度相机获取目标物体的位姿信息,并将物体的坐标系转到机械臂基坐标系,控制机械臂移动到目标点,其中识别与定位目标物体的步骤与S12-S19相同;
步骤S5:根据机械臂末端六维力传感器与外界环境的接触力信息,通过误差计算修正调整机械臂末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳;
步骤S61:机械臂夹爪按探索程序采集触觉点云,并融合视觉点云,判断目标物体的最佳抓取位姿。
进一步地,其中基于视触点云融合的最佳抓取位姿选取流程如图5所示,以下结合图5对步骤S61进行详细说明:
步骤S611:机械爪根据预定的探索程序对物体进行触摸感知;
步骤S612:当传感器单元读数超过设定阈值,则判定机械爪与物体发生了接触,并记录相关数据:接触单元位置坐标p(x,y,z)和法向量n=(nx,ny,nz),机械臂关节传感器读数θarm={θ1,…θ7}和机械爪关节fi传感器读数
步骤S613:将相关数据转换到机器人基坐标系,获得某个接触点的信息Pj=[locj,Nj]:
其中Tarm是机械臂末端到基坐标系得变换矩阵,Thand是机械爪到机械臂末端坐标系的变换矩阵;
步骤S614:经过完整的探索程序,获得j个接触点数据,生成该物体的点云集PChaptic={P1,…Pj};
步骤S615:采集视觉点云,采用直通滤波与随机采样一致算法RANSAC对目标点云进行分割、采用统计滤波SOR去除离群噪点、采用移动最小二乘法MLS平滑点云,最终获取目标物体的视觉点云PCvisual;
步骤S616:采用ICP算法对视触点云进行配准;
步骤S617:将配准的点云信息输入训练好的3D卷积神经网络,获得目标物体的最佳抓取位姿G=((x,y,z),w,θ);
其中(x,y,z)是最佳抓取点的三维坐标,w是机械爪的预抓取开合宽度,θ是与z轴的偏转角;
步骤S62:机械爪与抓取物体,采集触觉信息,同时融合物体的视觉纹理信息,判断目标物体的刚度,从而控制夹爪的抓取力大小。
进一步地,其中进一步地,其中基于视触点云融合的最佳抓取位姿选取流程如图6所示,以下结合图6对步骤S62进行详细说明:
步骤S621:机械爪以步骤S61确定的抓取位姿对物体进行抓取,触觉传感器开始采集数据S={n1,n2,…n72};
步骤S622:位于末端的相机采集目标物体视觉纹理信息;
步骤S623:构建多模态融合网络:对触觉信息与视觉纹理信息分别利用CNN进行特征提取,再对提取的特征进行融合,并在此基础上构建分类网络,评估目标物体的刚度等级R;
步骤S624:根据物体刚度确定夹取力阈值,并采用PD方法实现对机械爪的控制,具体方式如下:
Fg=[Fg1,Fg2,…Fgm]
其中,θ为机械爪手指电机转动角增量,Kp、Kd为比例参数和微分参数,Fg为夹取力阈值,由刚度等级R确定;
通过控制机械爪的抓取力度,可以有效减少被抓取物体的有害形变,且避免机械爪手指电机发生过载;
步骤S7:根据确定的抓取位姿与抓取力,完成对目标物体的精度抓取。
本发明经过多次深度帧滤波,提高深度信息数据质量、降低噪声水平,同时基于轻量级神经网络识别目标物体的类别并初步选取目标所在区域,再融合目标区域的可见光与深度信息,获得更精准的目标物体边界,从而确定物体质心,提高物体定位精度;本发明基于传感器模块测量机械臂与外界环境的接触力,能够修正调整机械臂末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳;另外融合触觉与视觉信息,判定目标物体的最佳抓取位姿及抓取力大小,能有效提高成功抓取率并控制机械爪的抓取力度,减少被抓取物体的有害形变且避免机械爪手指电机发生过载。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。
Claims (6)
1.复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其特征在于:在复杂光照条件下,融合基于视觉的可见光与深度信息和物体的触觉信息,完成从对物体模糊识别到精度识别抓取的过程,其具体步骤为:
步骤S1:在复杂光照条件下,引入受光照变化影响小的深度信息,结合可见光信息,识别目标物体的大致位置,发送控制指令;
步骤S2:移动平台接收到指令后,并将物体的坐标系转到移动平台坐标系,移动平台导航到目标物体附近;
步骤S3:再次启动移动平台上的深度相机获取目标物体的位姿信息,并将物体的坐标转到机械臂基坐标系,控制机械臂移动到目标物体附近;
步骤S4:启动机械臂末端的深度相机获取目标物体的位姿信息,并将物体的坐标系转到机械臂基坐标系,控制机械臂移动到目标点;
步骤S5:根据机械臂末端六维力传感器与外界环境的接触力信息,调整机械臂位姿;
步骤S6:利用机械爪指尖的传感器采集触觉信息,融合视觉信息选取目标物体的最佳抓取位姿,并判定最佳的抓取力;
步骤S7:根据确定的抓取位姿与抓取力,完成对目标物体的精确抓取。
2.根据权利要求1所述的复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其特征在于,所述步骤S1、S2、S3、S4中获取目标物体的位姿信息包括以下步骤:
(a)将所获深度帧依次进行抽取滤波、空间滤波、时间滤波、孔填充过滤,提高深度数据质量并降低噪声水平,所获深度帧根据红外立体声原理获得,能有效降低光照的影响;
(b)将深度相机所获得深度图像IDepth与彩色图像IRGB对齐;
(c)利用轻量级神经网络获得预选取物体的类别与区域ROI;
(d)提取深度图像IDepthROI区域深度信息特征获得深度显著图DS;
(e)提取可见光图像IVisual亮度与纹理特征获得可见光显著图VS;
(f)将DS、VS加权获得融合的显著性图,突出目标区域并减弱光照的影响;
(g)根据获得显著性图再次对目标物体进行精准分割和定位,获取图像质心坐标;
(h)将所获二维质心坐标转为实际的三维空间坐标,其转换公式如下:
3.根据权利要求1所述的复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其特征在于,所述步骤S5利用六维力传感器测量机械臂与环境的接触力,通过误差计算修正调整机械臂末端位置,防止末端执行器与环境接触力过大造成损坏或机械臂机身失稳。
4.根据权利要求1所述的复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其特征在于,所述步骤6采用3个24维电容式传感器阵列采集触觉信息,并融合视觉信息判断物体最佳抓取点与抓取力大小,其步骤包括:
步骤S61:基于视触点云融合的最佳抓取位姿选取;
步骤S62:基于视觉纹理与力触觉的物体刚度与抓取力判断。
5.根据权利要求4所述的复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其特征在于,所述步骤S61基于视触点云融合的最佳抓取位姿选取包括:
步骤S611:机械爪根据预定的探索程序对物体进行触摸感知;
步骤S612:当传感器单元读数超过设定阈值,则判定机械爪与物体发生了接触,并记录相关数据:接触单元位置坐标p(x,y,z)和法向量n=(nx,ny,nz),机械臂关节传感器读数θarm={θ1,…θ7}和机械爪关节fi传感器读数
步骤S613:将相关数据转换到机器人基坐标系,获得某个接触点的信息Pj=[locj,Nj]:
其中Tarm是机械臂末端到基坐标系得变换矩阵,Thand是机械爪到机械臂末端坐标系的变换矩阵;
步骤S614:经过完整的探索程序,获得j个接触点数据,生成该物体的点云集PChaptic={P1,…Pj};
步骤S615:采集视觉点云,采用直通滤波与随机采样一致算法RANSAC对目标点云进行分割、采用统计滤波SOR去除离群噪点、采用移动最小二乘法MLS平滑点云,最终获取目标物体的视觉点云PCvisual;
步骤S616:采用ICP算法对视触点云进行配准;
步骤S617:将配准的点云信息输入训练好的3D卷积神经网络,获得目标物体的最佳抓取位姿G=((x,y,z),w,θ);
其中(x,y,z)是最佳抓取点的三维坐标,w是机械爪的预抓取开合宽度,θ是与z轴的偏转角。
6.根据权利要求4所述的复杂光照条件下基于视触融合的机械臂自主移动抓取方法,其特征在于,所述步骤S62基于视觉纹理与力触觉的物体刚度与抓取力判断包括:
步骤S621:机械爪以步骤S61确定的抓取位姿对物体进行抓取,触觉传感器开始采集数据S={n1,n2,…n72};
步骤S622:位于末端的相机采集目标物体视觉纹理信息;
步骤S623:构建多模态融合网络:对触觉信息与视觉纹理信息分别利用CNN进行特征提取,再对提取的特征进行融合,并在此基础上构建分类网络,评估目标物体的刚度等级R;
步骤S624:根据物体刚度确定夹取力阈值,并采用PD方法实现对机械爪的控制,具体方式如下:
Fg=[Fg1,Fg2,…Fgm]
其中,θ为机械爪手指电机转动角增量,Kp、Kd为比例参数和微分参数,Fg为夹取力阈值,由刚度等级R确定;
通过控制机械爪的抓取力度,有效减少被抓取物体的有害形变,且避免机械爪手指电机发生过载。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111177462.7A CN113696186B (zh) | 2021-10-09 | 2021-10-09 | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 |
PCT/CN2021/126401 WO2023056670A1 (zh) | 2021-10-09 | 2021-10-26 | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 |
US17/784,905 US20230042756A1 (en) | 2021-10-09 | 2021-10-26 | Autonomous mobile grabbing method for mechanical arm based on visual-haptic fusion under complex illumination condition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111177462.7A CN113696186B (zh) | 2021-10-09 | 2021-10-09 | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113696186A CN113696186A (zh) | 2021-11-26 |
CN113696186B true CN113696186B (zh) | 2022-09-30 |
Family
ID=78662635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111177462.7A Active CN113696186B (zh) | 2021-10-09 | 2021-10-09 | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113696186B (zh) |
WO (1) | WO2023056670A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024202205A1 (en) * | 2023-03-30 | 2024-10-03 | Sony Group Corporation | Robot control device, robot control method, and robot system |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114771772B (zh) * | 2022-03-28 | 2023-12-19 | 广东海洋大学 | 融合视觉与力觉机械臂的水下打捞装置 |
CN114750164B (zh) * | 2022-05-25 | 2023-06-20 | 清华大学深圳国际研究生院 | 一种透明物体的抓取方法、系统及计算机可读存储介质 |
CN114851227B (zh) * | 2022-06-22 | 2024-02-27 | 上海大学 | 一种基于机器视觉与触觉融合感知的装置 |
CN115611009B (zh) * | 2022-12-01 | 2023-03-21 | 中煤科工西安研究院(集团)有限公司 | 一种煤矿井下码垛式杆箱钻杆分离系统与方法 |
CN115914778A (zh) * | 2022-12-09 | 2023-04-04 | 南京理工大学 | 一种蛇形机械臂末端的视觉与接近觉融合感知系统 |
CN115984388B (zh) * | 2023-02-28 | 2023-06-06 | 江西省智能产业技术创新研究院 | 一种空间定位精度评估方法、系统、存储介质及计算机 |
CN116459013B (zh) * | 2023-04-24 | 2024-03-22 | 北京微链道爱科技有限公司 | 一种基于3d视觉识别的协作机器人 |
CN116858589B (zh) * | 2023-05-29 | 2024-03-22 | 浙江大学 | 小麦育种高通量取样切片设备及控制方法 |
CN116699166B (zh) * | 2023-08-08 | 2024-01-02 | 国网浙江省电力有限公司宁波供电公司 | 一种基于视觉识别的油色谱样品自动定位方法及系统 |
CN117011387B (zh) * | 2023-10-07 | 2024-01-26 | 湖州丽天智能科技有限公司 | 一种基于视觉识别的光伏板位姿拟合方法及安装机器人 |
CN117226854B (zh) * | 2023-11-13 | 2024-02-02 | 之江实验室 | 一种夹取任务的执行方法、装置、存储介质及电子设备 |
CN118046381B (zh) * | 2024-01-03 | 2024-07-12 | 北汽利戴工业技术服务(北京)有限公司 | 一种工业用视觉识别系统 |
CN117549338B (zh) * | 2024-01-09 | 2024-03-29 | 北京李尔现代坦迪斯汽车系统有限公司 | 一种用于汽车坐垫生产车间的抓取机器人 |
CN117549317B (zh) * | 2024-01-12 | 2024-04-02 | 深圳威洛博机器人有限公司 | 一种机器人抓取定位方法及系统 |
CN117649449B (zh) * | 2024-01-30 | 2024-05-03 | 鲁东大学 | 一种基于计算机视觉的机械臂抓取定位系统 |
CN117991825B (zh) * | 2024-02-02 | 2024-10-15 | 华南理工大学 | 基于深度学习与深度信息检测定位的云台结构及方法 |
CN117961916B (zh) * | 2024-03-29 | 2024-06-11 | 帕西尼感知科技(张家港)有限公司 | 一种目标物可抓取性判断、目标物抓取方法、装置及系统 |
CN118418139B (zh) * | 2024-07-03 | 2024-10-11 | 成就医学科技(天津)有限公司 | 机械臂位置对齐方法、装置及电子设备 |
CN118552947B (zh) * | 2024-07-24 | 2024-09-27 | 吉林大学第一医院 | 一种用于预防交叉感染的医疗废物处理方法 |
CN118636159A (zh) * | 2024-08-14 | 2024-09-13 | 上海傅利叶智能科技有限公司 | 一种控制人形机器人的物品搬运方法、装置及相关设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9492923B2 (en) * | 2014-12-16 | 2016-11-15 | Amazon Technologies, Inc. | Generating robotic grasping instructions for inventory items |
CN107921639B (zh) * | 2015-08-25 | 2021-09-21 | 川崎重工业株式会社 | 多个机器人系统间的信息共享系统及信息共享方法 |
CN108171748B (zh) * | 2018-01-23 | 2021-12-07 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
US11148295B2 (en) * | 2018-06-17 | 2021-10-19 | Robotics Materials, Inc. | Systems, devices, components, and methods for a compact robotic gripper with palm-mounted sensing, grasping, and computing devices and components |
CN108908334A (zh) * | 2018-07-20 | 2018-11-30 | 汕头大学 | 一种基于深度学习的智能抓取系统及方法 |
US11597084B2 (en) * | 2018-09-13 | 2023-03-07 | The Charles Stark Draper Laboratory, Inc. | Controlling robot torque and velocity based on context |
CN109483554B (zh) * | 2019-01-22 | 2020-05-12 | 清华大学 | 基于全局和局部视觉语义的机器人动态抓取方法及系统 |
CN111085997A (zh) * | 2019-12-17 | 2020-05-01 | 清华大学深圳国际研究生院 | 基于点云获取和处理的抓取训练方法及系统 |
CN111055279B (zh) * | 2019-12-17 | 2022-02-15 | 清华大学深圳国际研究生院 | 基于触觉与视觉结合的多模态物体抓取方法与系统 |
CN111462154B (zh) * | 2020-02-27 | 2024-01-23 | 中电莱斯信息系统有限公司 | 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人 |
CN111515945A (zh) * | 2020-04-10 | 2020-08-11 | 广州大学 | 机械臂视觉定位分拣抓取的控制方法、系统及装置 |
CN112060085B (zh) * | 2020-08-24 | 2021-10-08 | 清华大学 | 一种基于视触多尺度定位的机器人操作位姿控制方法 |
-
2021
- 2021-10-09 CN CN202111177462.7A patent/CN113696186B/zh active Active
- 2021-10-26 WO PCT/CN2021/126401 patent/WO2023056670A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024202205A1 (en) * | 2023-03-30 | 2024-10-03 | Sony Group Corporation | Robot control device, robot control method, and robot system |
Also Published As
Publication number | Publication date |
---|---|
WO2023056670A1 (zh) | 2023-04-13 |
CN113696186A (zh) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113696186B (zh) | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 | |
US20230042756A1 (en) | Autonomous mobile grabbing method for mechanical arm based on visual-haptic fusion under complex illumination condition | |
CN111602517B (zh) | 一种串型水果分布式视觉主动感知方法及其应用 | |
US11338435B2 (en) | Gripping system with machine learning | |
US10894324B2 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
CN109333534B (zh) | 预规划的实时步态控制算法 | |
CN109333506B (zh) | 一种人形智能机器人系统 | |
CN110355774A (zh) | 手控制装置及手控制系统 | |
CN111055281A (zh) | 一种基于ros的自主移动抓取系统与方法 | |
JP2022542241A (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
KR20120025582A (ko) | 로봇의 교시 데이터를 작성하는 방법 및 로봇 교시 시스템 | |
WO2007094420A1 (ja) | 移動型ロボット | |
CN111462154A (zh) | 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人 | |
JP2020163502A (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
Yang et al. | Real-time human-robot interaction in complex environment using kinect v2 image recognition | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
CN114463244A (zh) | 一种视觉机器人抓取系统及其控制方法 | |
JP6164319B2 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
KR102452315B1 (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
CN107363831B (zh) | 基于视觉的遥操作机器人控制系统及方法 | |
Volosyak et al. | Improvement of visual perceptual capabilities by feedback structures for robotic system FRIEND | |
US20240149458A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
CN115194774A (zh) | 一种基于多目视觉的双机械臂抓握系统控制方法 | |
WO2023286138A1 (ja) | ロボット制御システム、ロボットシステム、ロボット制御方法、およびロボット制御プログラム | |
CN117794704A (zh) | 机器人控制设备、机器人控制系统以及机器人控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |