CN112295933B - 一种机器人快速分拣货物的方法 - Google Patents

一种机器人快速分拣货物的方法 Download PDF

Info

Publication number
CN112295933B
CN112295933B CN202010980636.2A CN202010980636A CN112295933B CN 112295933 B CN112295933 B CN 112295933B CN 202010980636 A CN202010980636 A CN 202010980636A CN 112295933 B CN112295933 B CN 112295933B
Authority
CN
China
Prior art keywords
goods
robot
camera
sorting
grabbing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010980636.2A
Other languages
English (en)
Other versions
CN112295933A (zh
Inventor
李俊
于瑞涛
邱厚瀚
冯云剑
侯言旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010980636.2A priority Critical patent/CN112295933B/zh
Publication of CN112295933A publication Critical patent/CN112295933A/zh
Application granted granted Critical
Publication of CN112295933B publication Critical patent/CN112295933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/02Measures preceding sorting, e.g. arranging articles in a stream orientating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C2501/00Sorting according to a characteristic or feature of the articles or material to be sorted
    • B07C2501/0063Using robots

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开一种机器人快速分拣货物的方法,包括以下步骤:步骤1:在真实环境下搭建机器人货物分拣平台;步骤2:相机1采集待分拣箱货物图像,并通过启示图方法快速定位待分拣箱中的可抓取货物及抓取点;步骤3:机器人抓取货物,并将机器人末端抓取机构移动至相机2视野内;步骤4:相机2采集机器人末端抓取机构图像,若机器人成功抓取到货物,则通过深度学习方法或小样本学习方法对货物进行分类识别并继续执行步骤5,若抓取失败则机器人复位并重新执行步骤2;步骤5:机器人根据识别结果将所抓取货物放置到指定的收纳箱中;步骤6:重复执行步骤2至步骤5,直至待分拣箱货物分拣完成。本发明所提出的“先抓取、后识别”的两阶段方法能够有效提高货物分拣的速度和成功率。

Description

一种机器人快速分拣货物的方法
技术领域
本发明涉及一种机器人快速分拣货物的方法,属于机器人应用技术领域。
背景技术
近年来,研究人员对工业领域的分拣机器人进行了广泛的研究,如零件分拣,通过在工业机器人的基础上增加机器视觉系统,使机器人具有主动感知的能力,能够检测到待分拣对象的位置和类别,自适应的控制机器人到相应的位置执行抓取和分类动作,打破了传统的工业机器人只能通过示教或编程的方式到固定位置执行动作的限制。分拣机器人的应用不仅可以将人从繁重的流水线工作中解放出来,而且提高了生产效率。
在货物生产、运输和销售的环节中,需要对混杂在一起的货物进行分拣。但种类繁多的货物被随意混杂的堆放在分拣箱中,货物之间相互遮挡,构成了复杂的非结构化分拣场景。这严重影响了机器人视觉系统对货物的准确识别和定位,给机器人的自动化分拣工作带来了困难。在货物分拣时存在细类分拣和大类分拣两种情况,细类分拣即按照货物的细分属性进行分拣,大类分拣并不在意商品的细分属性,在不同行业的商品生产和销售中,大类分拣和细类分拣均存在很大的应用需求量。
目前,货物的分拣工作主要是由人工完成,然而长期高强度、高重复性的工作会让工作人员疲劳,工作效率下降。在涉及到食物、药物等货物的分拣时,容易发生安全事故。随着人口红利的消失,大量的雇佣工人对货物进行人工分拣会增加企业的生产和运营成本。因此,急需开发出一种高效准确快速的机器人分拣货物方法,提高机器人抓取的成功率和识别的准确率,从而实现货物的机器人智能化快速分拣。
发明内容
发明目的:针对于现有工业分拣机器人无法适用于密集混杂货物分拣的问题以及人工分拣工作强度大、效率低的问题,本发明提供了一种机器人快速分拣货物的方法,能够在密集混杂的货物分拣箱中对重叠遮挡的货物准确的定位抓取,然后对抓取到的货物进行识别分类,从而实现货物的机器人快速分拣。
上述的目的通过以下技术方案实现:
一种机器人快速分拣货物的方法,该方法包括如下步骤:
步骤1.在真实环境下搭建机器人货物分拣平台,该分拣平台包括含有末端抓取机构吸盘的机器人设备、固定在工作台正上方的相机1、固定在工作台面上的相机2、待分拣箱;
步骤2.相机1采集待分拣箱图像,并通过启示图方法定位待分拣箱中的可抓取货物及抓取点;
步骤3.机器人根据步骤2中的定位信息抓取货物,并将机器人末端抓取机构吸盘移动至相机2视野内;
步骤4.相机2采集机器人末端抓取机构图像,并通过深度学习方法或小样本学习方法判断机器人是否抓取到货物,若抓取成功则对货物进行识别并继续执行步骤5,若抓取失败则机器人复位并重新执行步骤2;
步骤5.机器人根据步骤4中的识别结果,将所抓取货物放置到指定的收纳箱中;
步骤6.重复执行步骤2至步骤5,直至待分拣箱货物分拣完成。
进一步地,步骤1具体包括:
步骤1-1.含有末端抓取机构吸盘的机器人设备固定在工作台上,末端抓取机构吸盘能够随机器人的机械臂移动并进行抓取;
步骤1-2.将相机1和相机2分别固定在工作台的正上方和工作台上,待分拣箱放置在工作台上并位于相机1的正下方,此时,待分拣箱位于相机1视野的中心位置,并且相机1视野与待分拣箱尺寸大小相同,使得机器人抓取工作空间被限定在该区域内;
步骤1-3.将机器人的机械臂、吸盘、相机1和相机2分别与计算服务器相连和通信;
步骤1-4.将随机混杂摆放有待分拣的若干多品种货物的分拣箱,放置在工作台上相机1的视野内。
进一步地,步骤2具体包括:
步骤2-1.通过相机1采集待分拣箱中全部货物的整体RGB图像和深度图像信息;
步骤2-2.基于改进的全卷积神经网络生成启示图,该网络包含编码和解码两个部分;编码阶段以步骤2-1所得的RGB图像作为输入,采用ResNet网络作为提取图像中深层抽象特征的网络,在编码阶段,将ResNet网络中第4层和第5层的下采样过程去除,同时采用了空洞卷积来提高卷积网络的感受野;在该部分最后引入了空洞空间金字塔池化模块,从多个尺度对特征进行采样;在解码阶段,设计了一个特征融合的模块,在该模块中将编码阶段的浅层特征与深层特征进行融合,采用注意力机制,在通道维度上进行加权融合,不同的特征采用不同的权重;最后采用双线性插值对特征图进行上采样,得到与输入图像尺寸相同的单通道图像,该图像即为待分拣箱中全部货物的整体启示图;
步骤2-3.利用步骤2-2所得的启示图生成一个拟优先抓取的货物的最佳定位信息,其中货物定位信息包括货物抓取点在图像坐标系中的坐标(x,y)和相机到该抓取点的深度信息h,启示图方法是将抽象的货物抓取功用性映射为启示图的像素表示,启示图中的每个像素点代表机器人使用吸盘在该位置抓取货物的成功率,颜色越深,抓取的成功率越高,则具有启示图像素最大值的点作为当前拟抓取的货物的最佳抓取点;
求取启示图像素最大值公式为:
argmax Q
其中Q为启示图图像中的像素值;
步骤2-4.判断货物抓取点在图像坐标系中的坐标(x,y)是否超出了所述的机器人抓取工作空间,若超出,则定位失败,重新执行步骤2;若没有超出,则认为定位成功,执行步骤3。
进一步地,步骤3具体包括:
步骤3-1.将货物定位信息中的货物抓取点在图像坐标系中的坐标(x,y)通过坐标变换转换到机器人坐标系下;
步骤3-2.机器人根据转换后的货物定位信息,将吸盘移动至货物抓取点正上方25cm处;
步骤3-3.机器人根据货物定位信息中的深度信息,将吸盘下降到抓取点位置,抓取货物;
步骤3-4.机器人将抓取到的货物移动至相机2的视野内。
进一步地,步骤4具体包括:
步骤4-1.通过相机2采集机器人末端抓取机构吸盘的图像;
步骤4-2.通过深度学习方法或小样本学习方法对相机2采集到的图像信息进行识别;
步骤4-3.若识别的结果为机器人的末端抓取机构吸盘,则机器人本次没有抓取到货物,对机器人进行复位,移出相机1的图像采集范围,执行步骤2;若识别的结果为某类货物,则机器人抓取到了货物并成功识别出货物的类别,然后执行步骤5。
进一步地,所述深度学习方法采用YOLOv3算法对货物的细分类识别,具体步骤包括:
首先采用LabelImg标注软件制作待抓取货物的图像数据集,其次采用CutMix方法对数据集样本进行了数据增强,之后在Pytorch框架下搭建YOLOv3网络模型,并在服务器上
对YOLOv3网络模型进行训练;
CutMix方法是将图像数据集样本的一部分区域剪切掉,但不填充0像素,而是随机填充训练集中的其他数据的区域像素值,分类结果按一定的比例分配,该方法在训练过程中不会出现非信息像素;其核心公式如下:
Figure GDA0003456977590000031
Figure GDA0003456977590000032
xA和xB是两个不同的训练样本,yA和yB是两个训练样本xA和xB对应的标签值,CutMix方法需要生成的是新的训练样本
Figure GDA0003456977590000033
和对应标签
Figure GDA0003456977590000034
M是对剪切掉区域进行填充的像素值的二进制掩码,⊙表示逐项相乘,1是所有元素都为1的二进制掩码,λ属于Beta分布:λ~Beta(α,α),令α=1,则λ服从(0,1)的均匀分布。
进一步地,所述小样本学习方法是基于原型网络的小样本分类算法——PMN算法,对货物进行大类分类识别,PMN算法利用卷积神经网络和双向长短期记忆网络构建相应的特征空间,通过计算平均值的方式对每个类别样本的特征向量进行压缩,以获得每个类别对应的原型;然后利用注意力长短期记忆网络对测试样本和各类别原型进行特征关系匹配,得到带有类别权重的特征向量;最后通过计算加权后的测试样本特征向量与各类别原型之间的余弦相似度,对测试样本进行分类预测;
PMN算法具体步骤包括:首先将货物粗粒度地划分成若干大类,采用LabelImg标注软件为每个大类制作各种货物的图像样本5~10张;然后在服务器上采用K-way N-shot方式训练PMN网络,即每轮训练随机从总的货物类别中抽取K个类别,K值通常取5或20,K值越大表示需要识别的种类越多,分类的难度越大,每个类别包含N个样本,N值通常取1、5或10,N值越小表示可供训练的样本数量越少,分类难度越大,由K×N个样本组成支持集,计算每个类别对应的原型;再从K个类别剩余的数据中抽取一批样本组成查询集,该查询集与支持集中的样本不重复,利用原型与查询集样本之间的相似程度对查询集样本进行分类预测,并采用交叉熵损失函数计算分类损失,优化网络参数。
进一步地,步骤5具体包括:
步骤5-1.在分拣任务开始前,将每种货物名称和拟盛放货物的收纳箱对应起来,制作成映射表;
步骤5-2.使用步骤4中识别到的货物类别查询映射表,确定机器人抓取到的当前货物所属的收纳箱,控制机器人将货物放置到相应的收纳箱中;
步骤5-3.机器人复位,完成一次分拣任务。
有益效果:本发明能够实现密集混杂货物的机器人快速分拣,相比于人工分拣,具有工作效率高、安全性高的特点。在分拣过程中,机器人首先通过启示图方法将货物从分拣箱中取出,将货物从密集杂乱的背景环境中分离出来,这一抓取过程中无需考虑货物的类别,从而取得抓取的快速性;然后在相对简单的背景下近距离地对所抓取的单个货物进行识别分类,以取得相比密集杂乱多货物背景下的识别准确率。通过这一先抓取、后识别的分拣方法,既实现了对货物准确的抓取和分类识别,又取得了更高的分拣的效率。本发明在密集混杂多品种货物的分拣实验中,细类分拣的抓取成功率为92.5%,分类准确率为95.4%,平均耗时10.7秒;大类分拣的抓取成功率为92.5%,分类准确率为98.7%,平均耗时10.8秒。
附图说明
图1是本发明机器人快速分拣货物方法的流程图;
图2是本发明涉及到的机器人货物分拣系统CAD结构图;
图3是本发明涉及到的识别货物时机器人姿态的CAD示意图;
附图2中标记说明:1为相机1,2为相机2,3为6轴机器人,4为末端执行器吸盘,5为盛放货物的待分拣箱,6为工作平台。
附图3中标记说明:1为相机1,2为相机2,3为6轴机器人,4为抓取到货物时的末端执行器吸盘,5为盛放货物的待分拣箱,6为工作平台。
具体实施方式
下面结合附图和实施例对本发明作进一步详细说明。
如图1所示,本发明提供的一种机器人快速分拣货物的方法,该方法包括如下步骤:
步骤1.在真实环境下搭建机器人货物分拣平台,该分拣平台包括机器人设备,含末端抓取机构吸盘,两台相机及一个待分拣箱和多个收纳箱;
步骤2.相机1采集待分拣箱图像,并通过启示图方法定位待分拣箱中的可抓取货物及抓取点;
步骤3.机器人根据步骤2中的定位信息抓取货物,并将机器人末端抓取机构吸盘移动至相机2视野内;
步骤4.相机2采集机器人末端抓取机构图像,并通过深度学习方法或小样本学习方法判断机器人是否抓取到货物,若抓取成功则对货物进行识别并继续执行步骤5,若抓取失败则机器人复位并重新执行步骤2;
步骤5.机器人根据步骤4中的识别结果,将所抓取货物放置到指定的收纳箱中;
步骤6.重复执行步骤2至步骤5,直至待分拣箱货物分拣完成。
所述的一种机器人快速分拣货物的方法,步骤1具体包括:
步骤1-1.含有末端抓取机构吸盘的机器人设备固定在工作台上,末端抓取机构吸盘能够随机器人的机械臂移动并进行抓取;
步骤1-2.将相机1和相机2分别固定在工作台的正上方和工作台上,待分拣箱放置在工作台上并位于相机1的正下方,此时,待分拣箱位于相机1视野的中心位置,并且相机1视野与待分拣箱尺寸大小相同,使得机器人抓取工作空间被限定在该区域内;
步骤1-3.将机器人的机械臂、吸盘、相机1和相机2分别与计算服务器相连和通信;
步骤1-4.将若干多品种物品作为待分拣货物,密集混杂的放置在待分拣箱中。
所述的一种机器人快速分拣货物的方法,步骤2具体包括:
步骤2-1.通过相机1采集待分拣箱中全部货物的整体RGB图像和深度图像信息;
步骤2-2.基于改进的全卷积神经网络生成启示图,该网络主要包括特征提取网络、空洞卷积、池化模块以及特征融合模块;
特征提取网络采用ResNet-101网络,网络特征提取部分主要包含5层结构,第1层由卷积层(Conv)、批量归一化层(BN)、ReLU激活层和最大池化层(Max Pool)组成,第2到5层具有相似的网络结构,都是由Conv Block块和多个Res Block块组成;
空洞卷积是一种优化图像分割效果的技术,通过在普通卷积核中添加空洞,扩大卷积核与图像作用的范围,增强网络提取图像中上下文信息的能力,二维的空洞卷积与图像作用的公式如下:
Figure GDA0003456977590000061
其中M和N为图像的尺寸大小,ω表示带有空洞的卷积核,x[m,n]为卷积层的输入,y[m,n]为卷积层的输出,i和j表示卷积核的大小,r表示空洞卷积的膨胀率,即卷积核中空洞的大小;
池化模块在ResNet特征提取网络之后,引入空洞空间金字塔池化模块,从多个尺度对特征进行采样,进一步扩大网络的感受野,提高对大尺寸货物目标抓取启示图的预测能力。空洞空间金字塔池化模块从五个不同的尺度对ResNet的特征输出进行处理,其中包括一个1*1的卷积层,三个3*3的卷积层,每个卷积核的空洞率不同,分别为6、12和18,空洞率不同所能提供的感受野也不同,从而能够捕获图像中多个尺度的特征信息,提高了特征表征能力;然后将5个不同尺度的特征进行叠加,通过卷积核为1*1的卷积层对多个尺度特征进行整合,输出维度为256的特征,作为后续的解码网络的特征输入;
特征融合模块采用的是一种基于注意力机制的特征融合方式,该模块的输入包含两个部分,一部分是将空洞空间金字塔池化模块输出的特征通过双线性插值进行两倍上采样得到的特征,另一部分是ResNet特征提取网络第2层输出的特征,两个特征的尺寸都为原图像的1/4;特种融合模块将两个不同层次的特征向量在通道维度进行相连,然后经过一个卷积核为1*1的卷积层进行初步的融合得到特征F1,然后采用注意力机制对初步融合的特征F1进行增强处理;
注意力机制分为3个步骤,首先需要获取初步融合的特征F1中各个通道与所有通道之间的权值W1,然后使用Softmax函数σ()对权值进行归一化操作,最后将归一化得到权值与特征F1发生作用,并采用残差结构得到融合后的特征F2,公式如下:
F2=F1+σ(W1)
特征F2通过卷积核为1*1的卷积层生成大小为原图像1/4的特征图,最后经过Dropout和双线性上采样得到与原图像尺寸相同的启示图;
步骤2-3.通过启示图方法生成最优的货物定位信息,其中定位信息包括货物抓取点在图像坐标系中的坐标(x,y)和相机到该抓取点的深度h,启示图方法是将抽象的货物抓取功用性映射为启示图的像素表示,启示图中的每个像素点代表机器人使用吸盘在该位置抓取货物的成功率,颜色越深,抓取的成功率越高,则具有启示图像素最大值的点作为当前拟抓取的货物的最佳抓取点;
求取启示图像素最大值公式为:
argmax Q
其中Q为启示图图像中的像素值;
步骤2-4.判断坐标(x,y)是否超出了所述的机器人抓取工作空间,若超出,则定位失败,重新执行步骤2;若没有超出,则认为定位成功,执行步骤3。
所述的一种机器人快速分拣货物的方法,步骤3具体包括:
步骤3-1.将货物定位信息中的货物抓取点在图像坐标系中的坐标(x,y)通过坐标变换转换到机器人坐标系下;
步骤3-2.机器人根据转换后的货物定位信息,将吸盘移动至货物抓取点正上方25cm处;
步骤3-3.机器人根据货物定位信息中的深度信息,将吸盘下降到抓取点位置,抓取货物;
步骤3-4.机器人将抓取到的货物移动至相机2的视野内。
所述的一种机器人快速分拣货物的方法,步骤4具体包括:
步骤4-1.通过相机2采集机器人末端抓取机构的图像;
步骤4-2.通过深度学习方法或小样本学习方法对相机2采集到的图像信息进行识别;
步骤4-3.若识别的结果为机器人的末端执行器吸盘,则机器人本次没有抓取到货物,对机器人进行复位,移出相机1的图像采集范围,执行步骤2;若识别的结果为某类货物,则机器人抓取到了货物并成功识别出货物的类别,然后执行步骤5。
所述的一种机器人快速分拣货物的方法,步骤4中深度学习方法具体是:采用高实时性的YOLOv3算法对货物的细分类识别,主要步骤包括:首先采用LabelImg标注软件制作待抓取货物的图像数据集,其次采用CutMix方法对数据集样本进行了数据增强,之后在Pytorch框架下搭建YOLOv3网络模型,并在服务器上对YOLOv3网络模型进行训练;
CutMix方法是将图像数据集样本的一部分区域剪切掉,但不填充0像素,而是随机填充训练集中的其他数据的区域像素值,分类结果按一定的比例分配,该方法在训练过程中不会出现非信息像素;其核心公式如下:
Figure GDA0003456977590000071
Figure GDA0003456977590000072
xA和xB是两个不同的训练样本,yA和yB是对应的标签值,CutMix方法需要生成的是新的训练样本
Figure GDA0003456977590000081
和对应标签
Figure GDA0003456977590000082
M是对剪切掉区域进行填充的像素值的二进制掩码,⊙表示逐项相乘,1是所有元素都为1的二进制掩码,λ属于Beta分布:λ~Beta(α,α),令α=1,则λ服从(0,1)的均匀分布。
所述的一种机器人快速分拣货物的方法,步骤4中小样本学习方法具体是:基于原型网络的小样本分类算法——PMN算法对货物进行大类分类识别,PMN算法将经典的小样本学习算法Prototypical Network(PN)与Matching Network(MN)的优势相结合,利用卷积神经网络(CNN)和双向长短期记忆网络(BiLSTM)构建相应的特征空间,通过计算平均值的方式对每个类别样本的特征向量进行压缩,以获得每个类别对应的原型;然后利用注意力长短期记忆网络(AttLSTM)对测试样本和各类别原型进行特征关系匹配,得到带有类别权重的特征向量;最后通过计算加权后的测试样本特征向量与各类别原型之间的余弦相似度,对测试样本进行分类预测;这一方法充分利用了MN算法强大的特征匹配能力,并解决了MN算法无法对稀有类别进行准确分类的问题;
PMN算法具体步骤包括:首先将货物粗粒度地划分成若干大类,采用LabelImg标注软件为每个大类制作各种货物的图像样本5~10张;然后在服务器上采用K-way N-shot方式训练PMN网络,即每轮训练随机从总的货物类别中抽取K个类别(K值通常取5或20,K值越大表示需要识别的种类越多,分类的难度越大),每个类别包含N个样本(N值通常取1,5或10,N值越小表示可供训练的样本数量越少,分类难度越大),由K×N个样本组成支持集,计算每个类别对应的原型;再从K个类别剩余的数据中抽取一批样本组成查询集(与支持集中的样本不重复),利用原型与查询集样本之间的相似程度对查询集样本进行分类预测,并采用交叉熵损失函数计算分类损失,优化网络参数。
所述的一种机器人快速分拣货物的方法,步骤5具体包括:
步骤5-1.在分拣任务开始前,将每种货物名称和盛放货物的分拣箱对应起来,制作成映射表;
步骤5-2.使用步骤4中识别到的货物类别查询映射表,获取当前机器人抓取到的货物所属的分拣箱,控制机器人将货物放置到相应的分拣箱中;
步骤5-3.机器人复位,完成一次分拣任务。
实验一:在实验中分别采用YOLOv3、Faster RCNN及本发明“先抓取,后识别”方法对货物进行识别分类和抓取定位,从抓取成功率、分类准确率以及平均耗时三个方面对三种货物分拣方法进行评估,其中各个指标定义如下:
Figure GDA0003456977590000091
Figure GDA0003456977590000092
Figure GDA0003456977590000093
Figure GDA0003456977590000094
分拣实验结果如下表所示:
表1分拣策略与效果比较(细类)
Figure GDA0003456977590000095
该对比实验中,本发明中采用“先抓取,后识别”方法,即:机器人先根据相机1的定位信息抓取货物,并将机器人末端抓取机构吸盘移动至相机2视野内;相机2采集机器人末端抓取机构图像,并通过深度学习方法或小样本学习方法判断机器人是否抓取到货物。抓取定位步骤采用启示图方法,识别分类步骤采用YOLOv3方法。
从表1中可以看出“先抓取,后识别”分拣方法的抓取成功率为92.5%,远远超过了两种目标检测算法的抓取成功率,抓取阶段采用的是基于启示图定位的方法,启示图能够较好的反映待分拣货物可抓取的功用性,避免将货物形变严重的位置确定为抓取点,而目标检测算法则直接将目标中心位置作为抓取点,没有对货物特点进行充分的考虑。“先抓取,后识别”方法具有高达95.4%的分类准确率,主要原因是机器人将货物从密集混杂的分拣箱中抓取出来,放置于单一固定的场景中进行识别,减少了其他相似货物的影响。基于YOLOv3的分拣方法直接在密集混杂的场景中对货物进行识别,准确率仅为88.5%,充分证明了本发明所提出的“先抓取,后识别”货物分拣策略的能够在识别算法不变的情况下,有效的提高分类准确率。平均耗时反映的是分拣方法的效率,耗时越小,分拣效率越高,基于YOLOv3和Faster RCNN的分拣方法对货物同时进行识别和定位,平均耗时分别为14.3s和13.5s,“先抓取,后识别”方法则将分拣流程分成两步,但平均耗时仅为10.7s,分拣效率高于以上两种分拣方法,说明了“先抓取,后识别”的分拣策略能够通过减少抓取和识别的失误率来提高分拣的效率。
实验二:在采用小样本学习方法对货物进行识别的实验中,本专利在数据集RPC-S上对原型网络进行训练,训练采用的是10-way 5-shot方式,每个episode随机从RPC-S数据集中选择10类商品,然后从每类商品样本中随机抽取5个样本组成训练的支持集;再从每类剩余的样本中随机抽取10个样本组成查询集。原型网络训练共进行2000轮次,然后使用训练好的模型在测试集上进行测试。测试采用4种不同的K-way N-shot组合,分别为5-way 1-shot、5-way 5-shot、20way 1-shot以及20way 5-shot,查询集与训练时一致,从每类商品的剩余的样本中选择10个样本。测试100个episode后进行数据统计,使用准确率Accuracy评价原型网络对货物的识别性能。实验结果见表2。
表2基于原型网络的货物大类识别结果
Figure GDA0003456977590000101
从表2中可以看出,对于待识别货物,原型网络能够在仅提供1张或5张样本图片的条件下,实现超过90%的识别准确率,最高可达到98.7%,而基于大规模数据集的识别算法远远达不到这种效果,充分表明了原型网络强大的泛化性能,在不重新训练网络的情况下,能够解决货物的识别问题;通过对实验数据进一步分析可以发现,使用原型网络对5种或20种货物识别时,5-shot情况下的识别准确率要高于1-shot情况下的识别准确率,这说明通过提供更多的货物样本,原型网络能够提取货物更多的特征,在此基础上构建更加稳定的特征空间,从而实现更高的识别准确率;通过对比相同N-shot情况下的数据可以发现,随着识别种类的增加,识别准确率降低,主要原因是类别增加需要网络拥有更多的参数来拟合非线性的类别信息,而网络在训练完成后参数固定,因此当增加货物时,网络拟合能力下降,进而导致了识别准确率下降。
实验三:当“先抓取,后识别”分拣策略的第一阶段抓取定位采用启示图方法,第二阶段识别分类采用小样本学习方法时,参照实验一及实验二的思路和数据,在5-way 5-shot组合情况下,可以得到此时的抓取成功率、分类准确率、分拣成功率,通过实验得到该情况下的平均耗时。
表3基于原型网络(5-way 5-shot)的大类识别与分拣效果
Figure GDA0003456977590000111
从表3中可以看出,在“先抓取,后识别”的分拣策略中,当第一阶段抓取定位采用启示图方法,第二阶段识别分类采用小样本学习方法即原型网络(5-way 5-shot)方法时,在货物的大类识别与分拣中,可以实现92.5%的抓取成功率、98.7%的分类准确率和91.3%的分拣成功率,且平均耗时仅为10.8s。参照实验一细类的分拣效果,可以看出实验三大类分拣的抓取成功率、分类准确率和分拣成功率都达到或超过了细类分拣时的最佳效果。
以上显示和描述了本发明的基本原理、主要特征和优点。本领域的技术人员应该了解,本发明不受上述具体实施例的限制,上述具体实施例和说明书中的描述只是为了进一步说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护的范围由权利要求书及其等效物界定。

Claims (6)

1.一种机器人快速分拣货物的方法,其特征在于,该方法包括如下步骤:
步骤1.在真实环境下搭建机器人货物分拣平台,该分拣平台包括含有末端抓取机构吸盘的机器人设备、固定在工作台正上方的相机1、固定在工作台面上的相机2、待分拣箱、收纳箱;
步骤2.相机1采集待分拣箱图像,并通过启示图方法定位待分拣箱中的可抓取货物及抓取点;
步骤3.机器人根据步骤2中的定位信息抓取货物,并将机器人末端抓取机构吸盘移动至相机2视野内;
步骤4.相机2采集机器人末端抓取机构图像,并通过深度学习方法或小样本学习方法判断机器人是否抓取到货物,若抓取成功则进一步对货物进行识别并继续执行步骤5,若抓取失败则机器人复位并重新执行步骤2;
步骤5.机器人根据步骤4中的识别结果,将所抓取货物放置到指定的收纳箱中;
步骤6.重复执行步骤2至步骤5,直至待分拣箱货物分拣完成;
步骤1具体包括:
步骤1-1.含有末端抓取机构吸盘的机器人设备固定在工作台上,末端抓取机构吸盘能够随机器人的机械臂移动并进行抓取;
步骤1-2.将相机1和相机2分别固定在工作台的正上方和工作台上,待分拣箱放置在工作台上并位于相机1的正下方,此时,待分拣箱位于相机1视野的中心位置,并且相机1视野与待分拣箱尺寸大小相同,使得机器人抓取工作空间被限定在该区域内;
步骤1-3.将机器人的机械臂、吸盘、相机1和相机2分别与计算服务器相连和通信;
步骤1-4.将随机混杂摆放有待分拣的若干多品种货物的待分拣箱,放置在工作台上相机1的视野内;
步骤2具体包括:
步骤2-1.通过相机1采集待分拣箱中全部货物的整体RGB图像和深度图像信息;
步骤2-2.基于改进的全卷积神经网络生成启示图,该网络包含编码和解码两个部分;编码阶段以步骤2-1所得的RGB图像作为输入,采用ResNet网络作为提取图像中深层抽象特征的网络,在编码阶段,将ResNet网络中第4层和第5层的下采样过程去除,同时采用了空洞卷积来提高卷积网络的感受野;在该部分最后引入了空洞空间金字塔池化模块,从多个尺度对特征进行采样;在解码阶段,设计了一个特征融合的模块,在该模块中将编码阶段的浅层特征与深层特征进行融合,采用注意力机制,在通道维度上进行加权融合,不同的特征采用不同的权重;最后采用双线性插值对特征图进行上采样,得到与输入图像尺寸相同的单通道图像,该图像即为待分拣箱中全部货物的整体启示图;
步骤2-3.利用步骤2-2所得的启示图生成一个拟优先抓取的货物的最佳定位信息,其中货物定位信息包括货物抓取点在图像坐标系中的坐标(x,y)和相机到该抓取点的深度信息h,启示图方法是将抽象的货物抓取功用性映射为启示图的像素表示,启示图中的每个像素点代表机器人使用吸盘在该位置抓取货物的成功率,颜色越深,抓取的成功率越高,则具有启示图像素最大值的点作为当前拟抓取的货物的最佳抓取点;
求取启示图像素最大值公式为:
argmax Q
其中Q为启示图图像中的像素值;
步骤2-4.判断货物抓取点在图像坐标系中的坐标(x,y)是否超出了所述的机器人抓取工作空间,若超出,则定位失败,重新执行步骤2;若没有超出,则认为定位成功,执行步骤3。
2.根据权利要求1所述的一种机器人快速分拣货物的方法,其特征在于,步骤3具体包括:
步骤3-1.将货物定位信息中的货物抓取点在图像坐标系中的坐标(x,y)通过坐标变换转换到机器人坐标系下;
步骤3-2.机器人根据转换后的货物定位信息,将吸盘移动至货物抓取点正上方;
步骤3-3.机器人根据货物定位信息中的深度信息,将吸盘下降到抓取点位置,抓取货物;
步骤3-4.机器人将抓取到的货物移动至相机2的视野内。
3.根据权利要求1所述的一种机器人快速分拣货物的方法,其特征在于,步骤4具体包括:
步骤4-1.通过相机2采集机器人末端抓取机构吸盘的图像;
步骤4-2.通过深度学习方法或小样本学习方法对相机2采集到的图像信息进行识别;
步骤4-3.若识别的结果为机器人的末端抓取机构吸盘,则机器人本次没有抓取到货物,对机器人进行复位,移出相机1的图像采集范围,执行步骤2;若识别的结果为某类货物,则机器人抓取到了货物并成功识别出货物的类别,然后执行步骤5。
4.根据权利要求3所述的一种机器人快速分拣货物的方法,其特征在于,所述深度学习方法采用YOLOv3算法对货物的细分类识别,具体步骤包括:首先采用LabelImg标注软件制作待抓取货物的图像数据集,其次采用CutMix方法对数据集样本进行了数据增强,之后在Pytorch框架下搭建YOLOv3网络模型,并在服务器上对YOLOv3网络模型进行训练。
5.根据权利要求3所述的一种机器人快速分拣货物的方法,其特征在于,所述小样本学习方法是基于原型网络的小样本分类算法——PMN算法,对货物进行大类分类识别,PMN算法利用卷积神经网络和双向长短期记忆网络构建相应的特征空间,通过计算平均值的方式对每个类别样本的特征向量进行压缩,以获得每个类别对应的原型;然后利用注意力长短期记忆网络对测试样本和各类别原型进行特征关系匹配,得到带有类别权重的特征向量;最后通过计算加权后的测试样本特征向量与各类别原型之间的余弦相似度,对测试样本进行分类预测;
PMN算法具体步骤包括:首先将货物粗粒度地划分成若干大类,采用LabelImg标注软件为每个大类制作各种货物的图像样本5~10张;然后在服务器上采用K-way N-shot方式训练PMN网络,即每轮训练随机从总的货物类别中抽取K个类别,每个类别包含N个样本,由K×N个样本组成支持集,计算每个类别对应的原型;再从K个类别剩余的数据中抽取一批样本组成查询集,该查询集与支持集中的样本不重复,利用原型与查询集样本之间的相似程度对查询集样本进行分类预测,并采用交叉熵损失函数计算分类损失,优化网络参数。
6.根据权利要求1所述的一种机器人快速分拣货物的方法,其特征在于,步骤5具体包括:
步骤5-1.在分拣任务开始前,将每种货物名称和盛放货物的收纳箱对应起来,制作成映射表;
步骤5-2.使用步骤4中识别到的货物类别查询映射表,确定机器人抓取到的当前货物所属的收纳箱,控制机器人将货物放置到相应的收纳箱中;
步骤5-3.机器人复位,完成一次分拣任务。
CN202010980636.2A 2020-09-17 2020-09-17 一种机器人快速分拣货物的方法 Active CN112295933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010980636.2A CN112295933B (zh) 2020-09-17 2020-09-17 一种机器人快速分拣货物的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010980636.2A CN112295933B (zh) 2020-09-17 2020-09-17 一种机器人快速分拣货物的方法

Publications (2)

Publication Number Publication Date
CN112295933A CN112295933A (zh) 2021-02-02
CN112295933B true CN112295933B (zh) 2022-03-11

Family

ID=74483105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010980636.2A Active CN112295933B (zh) 2020-09-17 2020-09-17 一种机器人快速分拣货物的方法

Country Status (1)

Country Link
CN (1) CN112295933B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688825A (zh) * 2021-05-17 2021-11-23 海南师范大学 一种ai智能垃圾识别分类系统和方法
CN113351522B (zh) * 2021-06-11 2023-01-31 梅卡曼德(北京)机器人科技有限公司 物品分拣方法、装置及系统
CN113657551B (zh) * 2021-09-01 2023-10-20 陕西工业职业技术学院 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法
CN114405865B (zh) * 2022-01-20 2024-01-30 湖南视比特机器人有限公司 视觉引导钢板分拣方法、视觉引导钢板分拣装置和系统
CN114589703A (zh) * 2022-04-25 2022-06-07 北京京东乾石科技有限公司 端拾器控制方法、端拾器装置、搬运机器人及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI127100B (en) * 2016-08-04 2017-11-15 Zenrobotics Oy A method and apparatus for separating at least one piece from a plurality of pieces
JP2018062016A (ja) * 2016-10-11 2018-04-19 ファナック株式会社 人の行動を学習してロボットを制御する制御装置、ロボットシステムおよび生産システム
CN108126914A (zh) * 2017-11-24 2018-06-08 上海发那科机器人有限公司 一种基于深度学习的料框内散乱多物体机器人分拣方法
CN207901142U (zh) * 2017-12-28 2018-09-25 广州赛特智能科技有限公司 一种基于视觉的物流分拣机器人
CN208005677U (zh) * 2018-01-22 2018-10-26 东莞市精联精密技术有限公司 一种微米级工业测量质检机械手臂
CN108801462A (zh) * 2018-04-02 2018-11-13 武汉理工大学 一种非接触式车用线束线序识别装置
CN109829907A (zh) * 2019-01-31 2019-05-31 浙江工业大学 一种基于深度学习的金属轴表面缺陷识别方法
CN110302981A (zh) * 2019-06-17 2019-10-08 华侨大学 一种固废分拣在线抓取方法和系统
CN110400345A (zh) * 2019-07-24 2019-11-01 西南科技大学 基于深度强化学习的放射性废物推抓协同分拣方法
CN110639820A (zh) * 2019-09-25 2020-01-03 谢静如 一种无人快递自动化分拣系统
CN110756462A (zh) * 2019-09-24 2020-02-07 鲁班嫡系机器人(深圳)有限公司 电源适配器测试方法、装置、系统、控制装置及存储介质
CN111091062A (zh) * 2019-11-21 2020-05-01 东南大学 一种基于3d视觉聚类和匹配的机器人乱序目标分拣方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017107357A1 (de) * 2016-10-21 2018-04-26 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Absortierunterstützungsverfahren, Absortiersystem und Flachbettwerkzeugmaschine
CA2983469A1 (en) * 2017-10-24 2019-04-24 Thi Ngoc Tran Ho Virtual try-on system and methods for assisting end-users and businesses
JP7066590B2 (ja) * 2018-10-05 2022-05-13 本田技研工業株式会社 診断装置、診断方法、及びプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI127100B (en) * 2016-08-04 2017-11-15 Zenrobotics Oy A method and apparatus for separating at least one piece from a plurality of pieces
JP2018062016A (ja) * 2016-10-11 2018-04-19 ファナック株式会社 人の行動を学習してロボットを制御する制御装置、ロボットシステムおよび生産システム
CN108126914A (zh) * 2017-11-24 2018-06-08 上海发那科机器人有限公司 一种基于深度学习的料框内散乱多物体机器人分拣方法
CN207901142U (zh) * 2017-12-28 2018-09-25 广州赛特智能科技有限公司 一种基于视觉的物流分拣机器人
CN208005677U (zh) * 2018-01-22 2018-10-26 东莞市精联精密技术有限公司 一种微米级工业测量质检机械手臂
CN108801462A (zh) * 2018-04-02 2018-11-13 武汉理工大学 一种非接触式车用线束线序识别装置
CN109829907A (zh) * 2019-01-31 2019-05-31 浙江工业大学 一种基于深度学习的金属轴表面缺陷识别方法
CN110302981A (zh) * 2019-06-17 2019-10-08 华侨大学 一种固废分拣在线抓取方法和系统
CN110400345A (zh) * 2019-07-24 2019-11-01 西南科技大学 基于深度强化学习的放射性废物推抓协同分拣方法
CN110756462A (zh) * 2019-09-24 2020-02-07 鲁班嫡系机器人(深圳)有限公司 电源适配器测试方法、装置、系统、控制装置及存储介质
CN110639820A (zh) * 2019-09-25 2020-01-03 谢静如 一种无人快递自动化分拣系统
CN111091062A (zh) * 2019-11-21 2020-05-01 东南大学 一种基于3d视觉聚类和匹配的机器人乱序目标分拣方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"基于深度Q网络的机器人抓取系统";贺笑等;《工业控制计算机》;20200731;第33卷(第7期);第28-29、31页 *
"插件元器件分拣机器人系统设计与实现";彭刚等;《华中科技大学学报(自然科学版)》;20200131;第48卷(第1期);第108-114页 *

Also Published As

Publication number Publication date
CN112295933A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN112295933B (zh) 一种机器人快速分拣货物的方法
CN111767882B (zh) 一种基于改进yolo模型的多模态行人检测方法
CN110116415B (zh) 一种基于深度学习的瓶罐类垃圾识别分类机器人
CN110532920B (zh) 基于FaceNet方法的小数量数据集人脸识别方法
CN113807464B (zh) 基于改进yolo v5的无人机航拍图像目标检测方法
CN111275082A (zh) 一种基于改进端到端神经网络的室内物体目标检测方法
CN111046948B (zh) 点云仿真和深度学习的工件位姿识别及机器人上料方法
CN112241679B (zh) 一种垃圾自动分类的方法
US20160224858A1 (en) Method and device for recognizing a known object in a field of view of a three-dimensional machine vision system
CN111723829B (zh) 一种基于注意力掩模融合的全卷积目标检测方法
CN110633738B (zh) 一种用于工业零件图像的快速分类方法
CN110222604A (zh) 基于共享卷积神经网络的目标识别方法和装置
CN110969660A (zh) 一种基于三维立体视觉和点云深度学习的机器人上料系统
CN113762159B (zh) 一种基于有向箭头模型的目标抓取检测方法及系统
CN113128476A (zh) 一种基于计算机视觉目标检测的低功耗实时头盔检测方法
CN104598898B (zh) 一种基于多任务拓扑学习的航拍图像快速识别系统及其快速识别方法
CN210161172U (zh) 一种基于深度学习的瓶罐类垃圾识别分类机器人
CN117381793A (zh) 一种基于深度学习的物料智能检测视觉系统
CN109815887B (zh) 一种基于多智能体协作的复杂光照下人脸图像的分类方法
CN114241249B (zh) 基于目标检测算法与卷积神经网络的图像分类方法和系统
Shi et al. A fast workpiece detection method based on multi-feature fused SSD
CN113345100B (zh) 用于物体的目标抓取姿态的预测方法、装置、设备和介质
CN115690401A (zh) 一种融合ciou自适应样本分配的改进旋转框目标检测方法
CN115439926A (zh) 一种基于关键区域和场景深度的小样本异常行为识别方法
CN114882214A (zh) 一种基于深度学习从图像预测物体抓取顺序的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 210000 building 04, Liye Park, qidicheng, No.26, Zhizhi Road, Qilin science and Technology Innovation Park, Nanjing City, Jiangsu Province

Applicant after: SOUTHEAST University

Address before: 210096, No. four archway, Xuanwu District, Jiangsu, Nanjing 2

Applicant before: SOUTHEAST University

GR01 Patent grant
GR01 Patent grant