CN111590611B - 一种基于多模态主动感知的物品分类回收方法 - Google Patents
一种基于多模态主动感知的物品分类回收方法 Download PDFInfo
- Publication number
- CN111590611B CN111590611B CN202010447997.0A CN202010447997A CN111590611B CN 111590611 B CN111590611 B CN 111590611B CN 202010447997 A CN202010447997 A CN 202010447997A CN 111590611 B CN111590611 B CN 111590611B
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- article
- manipulator
- tactile
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/06—Gripping heads and other end effectors with vacuum or magnetic holding means
- B25J15/0616—Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种基于多模态主动感知的物品分类回收方法,属于机器人应用技术领域。本方法首先搭建面向目标物品的目标检测网络模型,进而得到抓取目标物品的抓取位姿,根据抓取位姿引导机械臂机械手系统主动对目标物进行捏取式抓取。机械手手指末端配备触觉传感器,抓取目标物的同时可实时获取目标物表面的触觉信号。对获取的触觉信息进行特征提取并输入到鉴别物品材质的触觉分类器,完成对目标物品的分类回收。本发明利用视觉和触觉多模态信息,通过视觉检测结果引导机器人主动以最适合的位姿对目标物品进行抓取并采集触觉信息,实现物品材质识别,完成物品分类回收。可自动识别多种不同材质的可回收物品,具有较强的通用性和实际意义。
Description
技术领域
本发明涉及一种基于多模态主动感知的物品分类回收方法,属于机器人应用技术领域。
背景技术
随着全球人口的持续增长和不断城市化,为了实现可持续发展和资源回收的目标,有必要利用机器人来自动高效地完成物品的分类回收任务。一种常见的回收方式是将可回收物品以混合的方式收集,收集时不考虑物品的材质信息。这种回收方式可以方便居民并能降低回收成本,然而需要后续操作将混合物品按照材质进行分类回收。在机器人应用中,可以通过视觉模态,利用视觉深度学习算法检测目标物品,进而生成目标物品的抓取位姿,引导机械臂机械手系统主动对目标物品进行有效抓取。在抓取目标物品时,安装在机械手手指末端的触觉传感器可以实时获取目标物表面的触觉信号,通过对触觉信号的分析,可完成物品材质的鉴别,完成对可回收物品的分类回收。
MIT与Princeton的研究人员在2018年ICRA(国际机器人与自动化会议)上,发表题为Robotic Pick-and-Place of Novel Objects in Clutterwith Multi-AffordanceGrasping and Cross-Domain Image Matching(通过生成抓取点热力图实现机器人在堆积场景下对未知物品的拾放)的文章,该技术通过深度学习训练,提出Affordance网络,输入拾取场景的彩色深度图像,输出像素级的AffordanceMap(抓取点热力图),避免了复杂的物品分割与识别,直接得到备选拾取位置,但该网络只能输出像素级的抓取点,不能输出机械手抓取物品的方向,因此抓取的位姿可能不适合对触觉数据的测量,从而导致触觉材质鉴别失败,已有方法无法有效地解决该问题。
深度学习,特别是卷积神经网络,在计算机领域已经取得了显著的成果,包括物体检测、物体识别以及图像语义分割等。
发明内容
本发明的目的是一种基于多模态主动感知的物品分类回收方法,面向实际需求,克服已有技术的不足之处,利用视觉检测结果引导机器人主动以最适合的位姿对目标物品进行抓取并采集触觉信息,实现物品材质鉴别,高效准确地完成物品分类回收,可自动鉴别多种不同材质的可回收物品。
本发明提出的基于多模态主动感知的物品分类回收方法,具体步骤如下:
(1)搭建一个机器人物品分类回收操作系统:
包括:一台机械臂、一个包含吸盘的机械手、一台彩色深度照相机、一个触觉传感器、一张可放置物品的操作台和物品回收容器,彩色深度照相机、触觉传感器、机械手和机械臂与控制器相连;
其中,机械臂的基座置于机械臂支架上并放置在操作台前方,彩色深度照相机用支架固定在操作台正上方,彩色深度照相机与机械臂的基座相对位置固定,物品随机摆放在操作台的台面上,与彩色深度照相机的镜头相距1至2米;建立机械臂的机械臂基坐标系为ob-xbybzb,ob为机械臂的基座中心点,zb为垂直于机械臂基座朝上方向,yb为垂直指向操作台方向,xb垂直于zb和yb所确定平面并且指向物品回收容器方向;建立机械手的机械手坐标系为oh-xhyhzh,oh为机械手的手掌中心点,zh为垂直于机械手手掌朝外方向,xh垂直于机械手相对手指的开合方向,yh垂直于zb和xb所确定平面并符合右手定则,oi-xiyi为图像坐标系,oi为彩色深度照相机拍摄得到图片的左下角,xi为从oi向右方向,yi为从oi向上方向且垂直于xi;
所述机械手与机械臂末端连接,机械手在机械臂的带动下运动,触觉传感器装配于机械手手指末端表面,机械手通过蓝牙方式与控制器连接,机械臂通过网线和局域网与笔记本电脑连接;
(2)训练一个检测物品的视觉目标检测网络模型,得到相对于图像坐标系机械手抓取物品的抓取位姿,具体步骤如下:
(2-1)利用在公开大规模数据集上预训练好的目标检测网络作为初始网络,采集物品的图片和目标检测标注,用采集到的物品的图片和目标检测标注对初始网络进行训练,得到检测物品的视觉目标检测器Dobj;
(2-2)将物品随机摆放在操作台的台面上,利用彩色深度照相机从物品的正上方向下拍摄,获取当前操作台面上的物品的彩色图像Ic和深度图像Id;
(2-3)将步骤(2-2)的彩色图像Ic输入到步骤(2-1)的视觉目标检测器Dobj中,视觉目标检测器Dobj输出为物品的包络框以及与物品的包络框相对应的置信度值;设定一个置信度阈值为τobj,使视觉目标检测器Dobj输出所有置信度值大于τobj的物品包络框,对视觉目标检测器Dobj的输出进行判断,若视觉目标检测器Dobj未输出物品包络框,则返回步骤(2-2),若视觉目标检测器Dobj输出物品包络框,则选取输出的包络框中置信度值最高的包络框Bbox,并进入步骤(2-4);
(2-4)根据步骤(2-3)中的包络框Bbox的范围,对步骤(2-2)的彩色图像Ic和深度图像Id继续剪裁,得到彩色裁剪图像I′c和深度裁剪图像I′d,将彩色裁剪图像I′c和深度裁剪图像I′d输入到Affordance网络,Affordance网络的输出为机械手抓取点热力图Amap,抓取点热力图Amap的每个像素与彩色裁剪图像I′c和深度裁剪图像I′d的每一个像素相对应,抓取点热力图Amap中的每个像素的像素值表示该像素位置适合被抓取的程度,像素值越大表示该位置越适合被抓取;
(2-5)将步骤(2-4)的抓取点热力图Amap中像素值最大的像素点(xs,ys)作为机械手吸盘吸取目标物品的吸取点,(xs,ys)相对于图像坐标系:
(xs,ys)=argmax(x,y)(Amap);
(2-6)分别设定一个像素阈值上限δmax和一个像素阈值下限δmin,得到一个像素阈值范围[δmin,δmax],从步骤(2-4)的抓取热力图Amap中提取像素值在像素阈值范围[δmin,δmax]内的像素点,所有像素点构成一个区域S,对区域S中的全部像素点的像素位置坐标进行主成分分析计算,得到第一主成分C1,C1为一个方向向量,该方向向量表示区域S中的全部像素点在C1方向的投影最为分散,选择与C1方向相垂直的方向C′1作为机械手2采用捏取方式抓取目标物时手指闭合的方向,C′1为在图像坐标系中的表示,得到相对于图像坐标系的机械手抓取物品的抓取位姿p=[xs,ys,C′1];
(3)训练一个用于鉴别物品材质的触觉分类器,具体包括以下步骤:
(3-1)采集物品的触觉数据集,具体包括以下步骤:
(3-1-1)设物品中包含N个已知材质的物品,共包含M种材质类型;
(3-1-2)从步骤(3-1-1)的N个已知材质的物品中选取物品O放到操作台的台面上,控制机械臂运动,带动机械手到达适合抓取物品O的最佳抓取位姿,控制机械手相对的手指闭合,以捏取方式抓取物品O,机械手手指末端安装的触觉传感器与物品O表面相互接触,触觉传感器为阵列式,阵列的尺寸为m×n,触觉采样频率为ω,记触觉传感器阵列中的每个触点的传感压力为ti,j,其中i=1,2,...,m,j=1,2,...,n,当机械手相对的手指逐渐闭合时,观察触觉传感压力读数,当有触点的触觉传感压力读数足够大时,认为物品O被抓取成功,这时开始记录λ时间段内阵列式触觉传感器触觉传感压力读数,共计得到T=ω×λ个采样数据,则得到触觉时间序列m×n×T(本实施例设置λ为3秒),此时控制机械手2松开被抓取的物品O,完成对物品O的一次触觉数据采集,对于物体O,共进行k次触觉数据采集,得到物品O的k个触觉时间序列,并记录物品O的材质标签;
(3-1-3)遍历步骤(3-1-1)中的N个已知材质的物品,重复步骤(3-1-2),得到物品4的触觉数据集Dtac;
(3-2)对步骤(3-1-3)的物品的触觉数据集Dtac中的每个触觉时间序列m×n×T提取触觉特征,具体包括以下步骤:
(3-2-1)将阵列尺寸为m×n的触觉传感阵列的各个触觉传感压力读数取平均值,则触觉时间序列m×n×T转化为:
S=[s1,s2,…,sT];
maxS=maximum(st),
minS=minimum(st),
rangeS=maxS-minS;
(3-2-3)将步骤(3-2-2)中提取的特征顺次连接,得到触觉特征:
(3-3)根据步骤(3-2)的触觉特征和步骤(3-1-3)的物品触觉数据集Dtac中提供的相应材质标签,利用支持向量机SVM作为触觉分类器,以触觉特征作为支持向量机SVM的输入,材质标签作为支持向量机SVM的输出,进行训练,得到可鉴别物品材质的触觉分类器;
(4)利用步骤(2)得到的抓取位姿和步骤(3)得到的鉴别物品材质的触觉分类器完成对目标物品的分类回收,具体包括以下步骤:
(4-1)采用步骤(2-2)至步骤(2-6)的方法,对目标物品进行相应操作,得到相对于图像坐标系,用机械手抓取目标物品的吸取点(xs,ys)以及机械手采用捏取方式抓取目标物时手指闭合的方向C′1;
(4-2)取步骤(4-1)中得到的吸取点(xs,ys)以及机械手采用捏取方式抓取目标物品时手指闭合的方向C′1,根据步骤(1)的彩色深度照相机的内参矩阵Icam与彩色深度照相机光心相对机械臂1机械臂基坐标系的外参矩阵将吸取点(xs,ys)转换至机械臂的机械臂基坐标系下得到方向C′1转换至机械臂基坐标系下得到取操作台上方h处,该高度相对于基坐标系zb轴坐标为则用计算机控制机械臂1移动机械臂末端至处,调整机械臂1末端位姿,令机械手手掌朝下,机械手坐标系zh轴正方向与操作台台面垂直,绕机械手的zh轴旋转机械手,令机械手手指的开合方向相对于基坐标系与同方向,进入步骤(4-3);
(4-3)利用计算机控制机械手2,首先将机械手2的吸盘推出,利用吸盘把目标物体吸起,机械手两手指之间相对,控制机械手,闭合手指以捏取的方式抓取目标物品,当机械手相对的手指逐渐闭合时,设定触觉传感压力的阈值,观察触觉传感压力读数,若有触点的触觉传感压力大于设定阈值,认为目标物品被抓取成功抓取,进入步骤(4-4),若有触点的触觉传感压力小于或等于设定阈值,则重新获取场景图像信息,返回步骤(4-1);
(4-4)记录λ时间段内的阵列式触觉传感器的触觉传感压力读数,得到触觉时间序列m×n×T;
(4-5)采用步骤(3-2)中的方法,从步骤(4-4)记录的触觉序列m×n×T中提取触觉特征ftac;
(4-6)将步骤(4-5)中得到的触觉特征ftac输入到步骤(3)的可鉴别物品材质的触觉分类器中,触觉分类器输出鉴别出的材质;
(4-7)按照步骤(4-6)中鉴别出的目标物品材质信息,操控机械臂,带动机械手移动至回收相应材质的物品回收容器,控制机械手,释放抓取的目标物品,控制机械臂的机械手系统回到初始位置P0,完成该目标物品的分类回收;
(4-8)遍历操作台上的所有目标物品,重复步骤(4-1)-步骤(4-7),实现全部目标物品的分类回收。
本发明提出的基于多模态主动感知的物品分类回收方法,其优点是:
本发明的基于多模态主动感知的物品材质鉴别方法,该方法首先搭建面向目标物品的目标检测网络模型,进而得到抓取目标物品的抓取位姿,根据抓取位姿引导机械臂机械手系统主动对目标物进行捏取式抓取。机械手手指末端配备触觉传感器,抓取目标物的同时可实时获取目标物表面的触觉信号。对获取的触觉信息进行特征提取并输入到鉴别物品材质的触觉分类器,完成对目标物品的分类回收。本发明利用视觉和触觉多模态信息,通过视觉检测结果引导机器人主动以最适合的位姿对目标物品进行抓取并采集触觉信息,实现物品材质识别,完成物品分类回收。本发明方法通过安装于机械手手指末端的触觉传感器阵列采集触觉信号序列,提取触觉特征,可快速准确地识别纸、塑料、玻璃和金属等常见可回收材料;本发明方法可以应用于将混合物品按材质进行分类回收,显著提升了物品分类回收的效率与自动化程度,具有较强的通用性和实际意义。
附图说明
图1是本发明方法的流程框图。
图2是本发明方法涉及的机器人物品分类回收操作系统的结构示意图。
图2中,1-机械臂,2-机械手,3-照相机,4-物品,5-操作平台,6-触觉传感器,7-物品回收容器。
图3是本发明方法中涉及的图像坐标系示意图。
具体实施方式
本发明提出的基于多模态主动感知的物品分类回收方法,其流程框图如图1所示,具体步骤如下:
(1)搭建一个如图2所示的实际机器人物品分类回收操作系统:
包括:一台机械臂1(本实施例为UniversalRobot 5),一个包含吸盘的机械手2(如CobotCohand212款),一台彩色深度照相机3(本实施例为KinectV2照相机),一个触觉传感器6(本实施例为一款5×5压阻式柔性触觉传感器阵列,可采用常规型号),一张可放置物品4的操作台5,以及物品回收容器7,彩色深度照相机3、触觉传感器6、机械手2和机械臂1与控制器相连;本发明的实施例中控制器为笔记本电脑;
其中,机械臂1的基座置于机械臂支架上并放置在操作台5前方,彩色深度照相机3用支架固定在操作台5正上方,彩色深度照相机3与机械臂1的基座相对位置固定,物品4随机摆放在操作台5的台面上,与彩色深度照相机3的镜头相距1至2米(本实施例放置于彩色深度照相机3正下方1.1米处)。建立机械臂1的机械臂基坐标系为ob-xbybzb,ob为机械臂1的基座中心点,zb为垂直于机械臂1基座朝上方向,yb为垂直指向操作台5方向,xb垂直于zb和yb所确定平面并且指向物品回收容器7方向,建立机械手2的机械手坐标系为oh-xhyhzh,oh为机械手2的手掌中心点,zh为垂直于机械手2手掌朝外方向,xh垂直于机械手2相对手指的开合方向,yh垂直于zb和xb所确定平面并符合右手定则,oi-xiyi为图像坐标系,oi为彩色深度照相机3拍摄得到图片的左下角,xi为从oi向右方向,yi为从oi向上方向且垂直于xi;
所述机械手2与机械臂1末端连接,机械手2在机械臂1的带动下运动,触觉传感器6装配于机械手2手指末端表面,机械手2通过蓝牙方式与控制器连接,机械臂1通过网线和局域网与笔记本电脑连接;
(2)训练一个检测物品4的视觉目标检测网络模型,得到相对于图像坐标系机械手2抓取物品4的抓取位姿,具体步骤如下:
(2-1)利用在公开大规模数据集上预训练好的目标检测网络作为初始网络(本实施例选用在COCO公开数据集上训练得到的SSD MobileNetV1目标检测网络),采集物品4的图片和目标检测标注,用采集到的物品4的图片和目标检测标注对初始网络进行训练,得到检测物品4的视觉目标检测器Dobj;
(2-2)将物品4随机摆放在操作台5的台面上,各个物品之间没有遮挡,利用彩色深度照相机3从物品4的正上方向下拍摄(本实施例选用KinectV2照相机),获取当前操作台面上的物品4的彩色图像Ic和深度图像Id;
(2-3)将步骤(2-2)的彩色图像Ic输入到步骤(2-1)的视觉目标检测器Dobj中,视觉目标检测器Dobj输出为物品4的包络框以及与物品4的包络框相对应的置信度值;设定一个置信度阈值为τobj(本实施例中τobj=0.2),使视觉目标检测器Dobj输出所有置信度值大于τobj的物品包络框,对视觉目标检测器Dobj的输出进行判断,若视觉目标检测器Dobj未输出物品包络框,则返回步骤(2-2),若视觉目标检测器Dobj输出物品包络框,则选取输出的包络框中置信度值最高的包络框Bbox,并进入步骤(2-4);
(2-4)根据步骤(2-3)中的包络框Bbox的范围,对步骤(2-2)的彩色图像Ic和深度图像Id继续剪裁,得到彩色裁剪图像I′c和深度裁剪图像I′d,将彩色裁剪图像I′c和深度裁剪图像I′d输入到Affordance网络,Affordance网络的输出为机械手抓取点热力图Amap,抓取点热力图Amap的每个像素与彩色裁剪图像I′c和深度裁剪图像I′d的每一个像素相对应,抓取点热力图Amap中的每个像素的像素值表示该像素位置适合被抓取的程度,像素值越大表示该位置越适合被抓取;
(2-5)将步骤(2-4)的抓取点热力图Amap中像素值最大的像素点(xs,ys)作为机械手吸盘吸取目标物品的吸取点,(xs,ys)相对于图像坐标系:
(xs,ys)=argmax(x,y)(Amap);
(2-6)分别设定一个像素阈值上限δmax和一个像素阈值下限δmin,得到一个像素阈值范围[δmin,δmax],从步骤(2-4)的抓取热力图Amap中提取像素值在像素阈值范围[δmin,δmax]内的像素点,所有像素点构成一个区域S,本实施例阈值上限δmax=255,阈值下限δmin=100,则阈值范围为[100,255],对区域S中的全部像素点的像素位置坐标进行主成分分析计算(Principal component analysis,简称PCA),得到第一主成分C1,C1为一个方向向量,该方向向量表示区域S中的全部像素点在C1方向的投影最为分散,选择与C1方向相垂直的方向C′1作为机械手2采用捏取方式抓取目标物时手指闭合的方向,C′1为在图像坐标系中的表示,得到相对于图像坐标系的机械手2抓取物品4的抓取位姿p=[xs,ys,C′1],图像坐标系如图3所示;
(3)训练一个用于鉴别物品材质的触觉分类器,具体包括以下步骤:
(3-1)采集物品4的触觉数据集,具体包括以下步骤:
(3-1-1)物品4中包含N个已知材质的物品,共包含M种材质类型,例如本发明一个实施例中选取了塑料、纸、玻璃、金属4种材质,盒子,瓶子,罐子等共计16个物品;
(3-1-2)从步骤(3-1-1)的N个已知材质的物品4中选取物品O放到操作台5的台面上,控制机械臂1运动,带动机械手2到达适合抓取物品O的最佳抓取位姿,控制机械手2相对的手指闭合,以捏取方式抓取物品O,机械手2手指末端安装的触觉传感器6与物品O表面相互接触,触觉传感器6为阵列式,阵列的尺寸为m×n,触觉采样频率为ω,记触觉传感器阵列中的每个触点的传感压力为ti,j,其中i=1,2,...,m,j=1,2,...,n,当机械手2相对的手指逐渐闭合时,观察触觉传感压力读数,当有触点的触觉传感压力读数足够大时(本实施例设置读数值大于传感器量程*5%),认为物品O被抓取成功,这时开始记录λ时间段内阵列式触觉传感器触觉传感压力读数,共计得到T=ω×λ个采样数据,则得到触觉时间序列m×n×T(本实施例设置λ为3秒),此时控制机械手2松开被抓取的物品O,完成对物品O的一次触觉数据采集,对于物体O,共进行k次触觉数据采集(本实施例中k=100),可以得到物品O的k个触觉时间序列,并记录物品O的材质标签;
(3-1-3)遍历步骤(3-1-1)中的N个已知材质的物品,重复步骤(3-1-2),得到物品4的触觉数据集Dtac;
(3-2)对步骤(3-1-3)的物品4的触觉数据集Dtac中的每个触觉时间序列m×n×T提取触觉特征,具体包括以下步骤:
(3-2-1)将阵列尺寸为m×n的触觉传感阵列的各个触觉传感压力读数取平均值,则触觉时间序列m×n×T转化为:
S=[s1,s2,...,sT];
maxS=maximum(st),
minS=minimum(st),
rangeS=maxS-minS;
(3-2-3)将步骤(3-2-2)中提取的特征顺次连接,得到触觉特征:
(3-3)根据步骤(3-2)的触觉特征和步骤(3-1-3)的物品触觉数据集Dtac中提供的相应材质标签,利用支持向量机SVM作为触觉分类器,以触觉特征作为支持向量机SVM的输入,材质标签作为支持向量机SVM的输出,进行训练,得到可鉴别物品材质的触觉分类器;
(4)利用步骤(2)得到的抓取位姿和步骤(3)得到的鉴别物品材质的触觉分类器完成对目标物品的分类回收,具体包括以下步骤:
(4-1)采用步骤(2-2)至步骤(2-6)的方法,对目标物品进行相应操作,得到相对于图像坐标系,用机械手2抓取目标物品的吸取点(xs,ys)以及机械手2采用捏取方式抓取目标物时手指闭合的方向C′1;
(4-2)取步骤(4-1)中得到的吸取点(xs,ys)以及机械手2采用捏取方式抓取目标物时手指闭合的方向C′1,根据步骤(1)的彩色深度照相机3的内参矩阵Icam与彩色深度照相机3光心相对机械臂1机械臂基坐标系的外参矩阵将吸取点(xs,ys)转换至机械臂1的机械臂基坐标系下得到方向C′1转换至机械臂基坐标系下得到取操作台5上方h处,该高度相对于基坐标系zb轴坐标为则用计算机控制机械臂1移动机械臂末端至处,调整机械臂1末端位姿,令机械手2手掌朝下,机械手坐标系zh轴正方向与操作台台面垂直,绕机械手2的zh轴旋转机械手,令机械手2手指的开合方向相对于基坐标系与同方向,进入步骤(4-3);
(4-3)利用计算机控制机械手2,首先将机械手2的吸盘推出,利用吸盘把目标物体吸起,机械手2两手指之间相对,控制机械手2,闭合手指以捏取的方式抓取目标物品,当机械手2相对的手指逐渐闭合时,设定触觉传感压力的阈值,观察触觉传感压力读数,若有触点的触觉传感压力大于设定阈值(本实施例设置读数阈值为传感器量程*5%),认为目标物品被抓取成功抓取,进入步骤(4-4),若有触点的触觉传感压力小于或等于设定阈值,则重新获取场景图像信息,返回步骤(4-1);
(4-4)记录λ时间段内的阵列式触觉传感器6的触觉传感压力读数,得到触觉时间序列m×n×T;
(4-5)采用步骤(3-2)中的方法,从步骤(4-4)记录的触觉序列m×n×T中提取触觉特征ftac;
(4-6)将步骤(4-5)中得到的触觉特征ftac输入到步骤(3)的可鉴别物品材质的触觉分类器中,触觉分类器输出鉴别出的材质;
(4-7)按照步骤(4-6)中鉴别出的目标物品材质信息,操控机械臂1,带动机械手2移动至回收相应材质的物品回收容器7,控制机械手2,释放抓取的目标物品,控制机械臂1机械手2系统回到初始位置P0,完成该目标物品的分类回收;
(4-8)遍历所有操作台上的目标物品,重复步骤(4-1)-步骤(4-7)实现全部目标物品的分类回收。
Claims (1)
1.一种基于多模态主动感知的物品分类回收方法,其特征在于该方法包括以下步骤:
(1)搭建一个机器人物品分类回收操作系统:
包括:一台机械臂、一个包含吸盘的机械手、一台彩色深度照相机、一个触觉传感器、一张可放置物品的操作台和物品回收容器,彩色深度照相机、触觉传感器、机械手和机械臂与控制器相连;
其中,机械臂的基座置于机械臂支架上并放置在操作台前方,彩色深度照相机用支架固定在操作台正上方,彩色深度照相机与机械臂的基座相对位置固定,物品随机摆放在操作台的台面上,与彩色深度照相机的镜头相距1至2米;建立机械臂的机械臂基坐标系为ob-xbybzb,ob为机械臂的基座中心点,zb为垂直于机械臂基座朝上方向,yb为垂直指向操作台方向,xb垂直于zb和yb所确定平面并且指向物品回收容器方向;建立机械手的机械手坐标系为oh-xhyhzh,oh为机械手的手掌中心点,zh为垂直于机械手手掌朝外方向,xh垂直于机械手相对手指的开合方向,yh垂直于zb和xb所确定平面并符合右手定则,oi-xiyi为图像坐标系,oi为彩色深度照相机拍摄得到图片的左下角,xi为从oi向右方向,yi为从oi向上方向且垂直于xi;
所述机械手与机械臂末端连接,机械手在机械臂的带动下运动,触觉传感器装配于机械手手指末端表面,机械手通过蓝牙方式与控制器连接,机械臂通过网线和局域网与笔记本电脑连接;
(2)训练一个检测物品的视觉目标检测网络模型,得到相对于图像坐标系机械手抓取物品的抓取位姿,具体步骤如下:
(2-1)利用在公开大规模数据集上预训练好的目标检测网络作为初始网络,采集物品的图片和目标检测标注,用采集到的物品的图片和目标检测标注对初始网络进行训练,得到检测物品的视觉目标检测器Dobj;
(2-2)将物品随机摆放在操作台的台面上,利用彩色深度照相机从物品的正上方向下拍摄,获取当前操作台面上的物品的彩色图像Ic和深度图像Id;
(2-3)将步骤(2-2)的彩色图像Ic输入到步骤(2-1)的视觉目标检测器Dobj中,视觉目标检测器Dobj输出为物品包络框以及与物品包络框相对应的置信度值;设定一个置信度阈值为τobj,使视觉目标检测器Dobj输出所有置信度值大于τobj的物品包络框,对视觉目标检测器Dobj的输出进行判断,若视觉目标检测器Dobj未输出物品包络框,则返回步骤(2-2),若视觉目标检测器Dobj输出物品包络框,则选取输出的物品包络框中置信度值最高的物品包络框Bbox,并进入步骤(2-4);
(2-4)根据步骤(2-3)中的物品包络框Bbox的范围,对步骤(2-2)的彩色图像Ic和深度图像Id继续剪裁,得到彩色裁剪图像Ic′和深度裁剪图像Id′,将彩色裁剪图像Ic′和深度裁剪图像Id′输入到Affordance网络,Affordance网络的输出为机械手抓取点热力图Amap,抓取点热力图Amap的每个像素与彩色裁剪图像Ic′和深度裁剪图像Id′的每一个像素相对应,抓取点热力图Amap中的每个像素的像素值表示该像素位置适合被抓取的程度,像素值越大表示该像素位置越适合被抓取;
(2-5)将步骤(2-4)的抓取点热力图Amap中像素值最大的像素点(xs,ys)作为机械手吸盘吸取目标物品的吸取点,(xs,ys)相对于图像坐标系:
(xs,ys)=argmax(x,y)(Amap);
(2-6)分别设定一个像素阈值上限δmax和一个像素阈值下限δmin,得到一个像素阈值范围[δmin,δmax],从步骤(2-4)的抓取热力图Amap中提取像素值在像素阈值范围[δmin,δmax]内的像素点,所有像素点构成一个区域S,对区域S中的全部像素点的像素位置坐标进行主成分分析计算,得到第一主成分C1,C1为一个方向向量,该方向向量表示区域S中的全部像素点在C1方向的投影最为分散,选择与C1方向相垂直的方向C1′作为机械手采用捏取方式抓取目标物时手指闭合的方向,C1′为在图像坐标系中的表示,得到相对于图像坐标系的机械手抓取物品的抓取位姿p=[xs,ys,C1′];
(3)训练一个用于鉴别物品材质的触觉分类器,具体包括以下步骤:
(3-1)采集物品的触觉数据集,具体包括以下步骤:
(3-1-1)设物品中包含N个已知材质的物品,共包含M种材质类型;
(3-1-2)从步骤(3-1-1)的N个已知材质的物品中选取物品O放到操作台的台面上,控制机械臂运动,带动机械手到达适合抓取物品O的最佳抓取位姿,控制机械手相对的手指闭合,以捏取方式抓取物品O,机械手手指末端安装的触觉传感器与物品O表面相互接触,触觉传感器为阵列式,阵列的尺寸为m×n,触觉采样频率为ω,记触觉传感器阵列中的每个触点的传感压力为ti,j,其中i=1,2,...,m,j=1,2,...,n,当机械手相对的手指逐渐闭合时,观察触觉传感压力读数,当有触点的触觉传感压力读数足够大时,认为物品O被抓取成功,这时开始记录λ时间段内阵列式触觉传感器触觉传感压力读数,共计得到T=ω×λ个采样数据,则得到触觉时间序列m×n×T,此时控制机械手松开被抓取的物品O,完成对物品O的一次触觉数据采集,对于物体O,共进行k次触觉数据采集,得到物品O的k个触觉时间序列,并记录物品O的材质标签;
(3-1-3)遍历步骤(3-1-1)中的N个已知材质的物品,重复步骤(3-1-2),得到物品的触觉数据集Dtac;
(3-2)对步骤(3-1-3)的物品的触觉数据集Dtac中的每个触觉时间序列m×n×T提取触觉特征,具体包括以下步骤:
(3-2-1)将阵列尺寸为m×n的触觉传感阵列的各个触觉传感压力读数取平均值,则触觉时间序列m×n×T转化为:
S=[s1,s2,...,sT];
maxS=maximum(st),
minS=minimum(st),
rangeS=maxS-minS;
(3-2-3)将步骤(3-2-2)中提取的特征顺次连接,得到触觉特征:
ftac=[μS,σS 2,maxS,minS,rangeS];
(3-3)根据步骤(3-2)的触觉特征和步骤(3-1-3)的物品触觉数据集Dtac中提供的相应材质标签,利用支持向量机SVM作为触觉分类器,以触觉特征作为支持向量机SVM的输入,材质标签作为支持向量机SVM的输出,进行训练,得到可鉴别物品材质的触觉分类器;
(4)利用步骤(2)得到的抓取位姿和步骤(3)得到的鉴别物品材质的触觉分类器完成对目标物品的分类回收,具体包括以下步骤:
(4-1)采用步骤(2-2)至步骤(2-6)的方法,对目标物品进行相应操作,得到相对于图像坐标系,用机械手抓取目标物品的吸取点(xs,ys)以及机械手采用捏取方式抓取目标物时手指闭合的方向C1′;
(4-2)取步骤(4-1)中得到的吸取点(xs,ys)以及机械手采用捏取方式抓取目标物品时手指闭合的方向C1′,根据步骤(1)的彩色深度照相机的内参矩阵Icam与彩色深度照相机光心相对机械臂基坐标系的外参矩阵将吸取点(xs,ys)转换至机械臂的机械臂基坐标系下得到方向C1′转换至机械臂基坐标系下得到取操作台上方高度h处,该高度相对于机械臂基坐标系zb轴坐标为则用计算机控制机械臂移动机械臂末端至处,调整机械臂末端位姿,令机械手手掌朝下,机械手坐标系zh轴正方向与操作台台面垂直,绕机械手的zh轴旋转机械手,令机械手手指的开合方向相对于机械臂基坐标系与同方向,进入步骤(4-3);
(4-3)利用计算机控制机械手,首先将机械手的吸盘推出,利用吸盘把目标物体吸起,机械手两手指之间相对,控制机械手,闭合手指以捏取的方式抓取目标物品,当机械手相对的手指逐渐闭合时,设定触觉传感压力的阈值,观察触觉传感压力读数,若有触点的触觉传感压力大于设定阈值,认为目标物品被抓取成功抓取,进入步骤(4-4),若有触点的触觉传感压力小于或等于设定阈值,则重新获取场景图像信息,返回步骤(4-1);
(4-4)记录λ时间段内的阵列式触觉传感器的触觉传感压力读数,得到触觉时间序列m×n×T;
(4-5)采用步骤(3-2)中的方法,从步骤(4-4)记录的触觉序列m×n×T中提取触觉特征ftac;
(4-6)将步骤(4-5)中得到的触觉特征ftac输入到步骤(3)的可鉴别物品材质的触觉分类器中,触觉分类器输出鉴别出的材质;
(4-7)按照步骤(4-6)中鉴别出的目标物品材质信息,操控机械臂,带动机械手移动至回收相应材质的物品回收容器,控制机械手,释放抓取的目标物品,控制机械臂的机械手系统回到初始位置P0,完成该目标物品的分类回收;
(4-8)遍历操作台上的所有目标物品,重复步骤(4-1)-步骤(4-7),实现全部目标物品的分类回收。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010447997.0A CN111590611B (zh) | 2020-05-25 | 2020-05-25 | 一种基于多模态主动感知的物品分类回收方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010447997.0A CN111590611B (zh) | 2020-05-25 | 2020-05-25 | 一种基于多模态主动感知的物品分类回收方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111590611A CN111590611A (zh) | 2020-08-28 |
CN111590611B true CN111590611B (zh) | 2022-12-02 |
Family
ID=72189297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010447997.0A Active CN111590611B (zh) | 2020-05-25 | 2020-05-25 | 一种基于多模态主动感知的物品分类回收方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111590611B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112893180A (zh) * | 2021-01-20 | 2021-06-04 | 同济大学 | 一种考虑摩擦系数异常值剔除的物体触摸分类方法和系统 |
CN112884825B (zh) * | 2021-03-19 | 2022-11-04 | 清华大学 | 基于深度学习模型的抓取方法及装置 |
CN113942009B (zh) * | 2021-09-13 | 2023-04-18 | 苏州大学 | 机器人仿生手抓取方法 |
CN113792792B (zh) * | 2021-09-15 | 2023-07-25 | 厦门大学 | 一种基于机器人的触觉数据感知分析方法 |
CN113850779A (zh) * | 2021-09-24 | 2021-12-28 | 深圳闪回科技有限公司 | 一种基于变分多实例图像识别的二手手机自动评级算法 |
CN114851227B (zh) * | 2022-06-22 | 2024-02-27 | 上海大学 | 一种基于机器视觉与触觉融合感知的装置 |
CN115319739B (zh) * | 2022-08-02 | 2024-07-09 | 中国科学院沈阳自动化研究所 | 一种基于视觉机械臂抓取工件方法 |
CN115711701B (zh) * | 2022-11-09 | 2024-07-02 | 上海交通大学 | 基于压痕的视触觉传感器力学参数原位标定方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10618174B2 (en) * | 2014-12-09 | 2020-04-14 | Aeolus Robotics, Inc. | Robotic Touch Perception |
CN105005787B (zh) * | 2015-06-24 | 2018-05-29 | 清华大学 | 一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法 |
CN107463952B (zh) * | 2017-07-21 | 2020-04-03 | 清华大学 | 一种基于多模态融合深度学习的物体材质分类方法 |
CN108536780B (zh) * | 2018-03-29 | 2020-04-03 | 清华大学 | 一种基于触觉纹理特征的跨模态物体材质检索方法 |
CN109344894B (zh) * | 2018-09-28 | 2023-12-22 | 广州大学 | 基于多传感器融合和深度学习的垃圾分类识别方法及装置 |
CN110861853B (zh) * | 2019-11-29 | 2021-10-19 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
-
2020
- 2020-05-25 CN CN202010447997.0A patent/CN111590611B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111590611A (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111590611B (zh) | 一种基于多模态主动感知的物品分类回收方法 | |
Yamaguchi et al. | Implementing tactile behaviors using fingervision | |
CN111055279B (zh) | 基于触觉与视觉结合的多模态物体抓取方法与系统 | |
Gundupalli Paulraj et al. | Automated municipal solid waste sorting for recycling using a mobile manipulator | |
CN109584298B (zh) | 面向机器人自主物体拾取任务的在线自学习方法 | |
CN111723782A (zh) | 基于深度学习的视觉机器人抓取方法及系统 | |
CN115816460B (zh) | 一种基于深度学习目标检测与图像分割的机械手抓取方法 | |
CN111923053A (zh) | 基于深度视觉的工业机器人物件抓取示教系统及方法 | |
WO2023092519A1 (zh) | 抓取控制方法、装置、电子设备和存储介质 | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作系统 | |
CN113334368A (zh) | 一种垃圾分类装置及分类方法 | |
CN115861780B (zh) | 一种基于yolo-ggcnn的机械臂检测抓取方法 | |
Iscimen et al. | Smart robot arm motion using computer vision | |
CN116984269A (zh) | 一种基于图像识别的煤矸石抓取方法及系统 | |
KR20230061612A (ko) | 머신 러닝을 이용한 물체의 피킹 자동화 시스템 및 그 제어 방법 | |
CN106682643A (zh) | 一种手势的多语义识别方法 | |
CN116968022A (zh) | 一种基于视觉引导的机械臂抓取目标物体方法及系统 | |
Uçar et al. | Determination of Angular Status and Dimensional Properties of Objects for Grasping with Robot Arm | |
Lin et al. | Robot vision to recognize both object and rotation for robot pick-and-place operation | |
Ouyang et al. | Robot grasp with multi-object detection based on RGB-D image | |
KR20200062770A (ko) | 비접촉식 물건속성 인식장치 및 방법 | |
CN112156992A (zh) | 一种机器视觉教学创新平台 | |
CN212724028U (zh) | 视觉机器人抓取系统 | |
Zhang et al. | Suction grasping detection for items sorting in warehouse logistics using deep convolutional neural networks | |
CN114770504A (zh) | 机器人控制方法、装置、机器人及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |