CN112170233A - 基于深度学习的小型零件分拣方法及其分拣系统 - Google Patents

基于深度学习的小型零件分拣方法及其分拣系统 Download PDF

Info

Publication number
CN112170233A
CN112170233A CN202010905536.3A CN202010905536A CN112170233A CN 112170233 A CN112170233 A CN 112170233A CN 202010905536 A CN202010905536 A CN 202010905536A CN 112170233 A CN112170233 A CN 112170233A
Authority
CN
China
Prior art keywords
parts
sorting
coordinates
conveyor belt
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010905536.3A
Other languages
English (en)
Other versions
CN112170233B (zh
Inventor
张立国
孙胜春
金梅
张少阔
张子豪
张勇
刘博�
郎梦园
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202010905536.3A priority Critical patent/CN112170233B/zh
Publication of CN112170233A publication Critical patent/CN112170233A/zh
Application granted granted Critical
Publication of CN112170233B publication Critical patent/CN112170233B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • B07C5/362Separating or distributor mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C2501/00Sorting according to a characteristic or feature of the articles or material to be sorted
    • B07C2501/0063Using robots

Abstract

本发明公开了一种基于深度学习的小型零件分拣系统及其分拣方法,零件分拣系统包括传送带、光电开关、工业相机、计算机和机械臂,传送带负责运送零件,光电开关负责检测零件是否到达图像采集区域,工业相机负责采集零件的图像,计算机对采集的图像进行处理,得到图中零件的类别和坐标位置;机械臂完成对确定类别和位置的零件的抓取分拣。分拣包括:S1、基于YOLOv4目标检测网络训练零件识别模型,通过训练好的零件识别模型检测图片中的零件,输出图中零件的类别名和坐标信息;S2、将零件图像的像素坐标转化为世界坐标;S3、将零件抓取至对应分拣箱内。该方法及装置通过模型预测得到零件的坐标位置,零件识别准确率更高,识别速度更快。

Description

基于深度学习的小型零件分拣方法及其分拣系统
技术领域
本发明涉及一种基于深度学习的小型零件分拣方法及其分拣系统,属于智能制造中的工业自动化领域。
背景技术
随着工业4.0和人工智能时代的到来,工业生产的任务逐渐交由由机器人来完成,在大幅度提高生产力的同时又减少了成本,同时将人从繁重枯燥且极具重复性的任务中解放出来。
早期生产线上零件的分拣大多由人来完成,这样生产的人工成本高、效率低且人工分拣无法保证长时间工作后分拣的效率和准确率。传统机器视觉的零件分拣主要基于人工设计的特征,利用特征点、最小外接矩形和模板匹配配等方法来识别零件。这种算法对于生产线上的姿态各异、形状较复杂的零件往往无法达到令人满意的效果。
针对传统机器视觉算法识别分拣零件时对外部环境变化适应能力弱、抗扰动能力差且对于复杂不规则零件的识别效率低等问题,本发明选用基于深度学习的目标检测方法来完成生产线上各种零件的识别,提高分拣的准确率。
发明内容
本发明的目的是提供一种基于深度学习的小型零件分拣方法及其分检系统,提高生产线上形态各异的、不规则的复杂零件的分拣速度和分拣准确率,提高分拣效率,从而提高生产力。
一种基于深度学习的小型零件分拣系统的分拣方法,主要包括以下步骤:
S1、基于YOLO v4目标检测网络训练零件识别模型,通过训练好的零件识别模型检测图片中的零件,输出图中零件的类别名和坐标信息,具体步骤为:
S11、对样本数据进行采集和扩充;S12、对样本图片进行标注:使用图像标注软件对样本数据进行标注,框选出各图中的零件并标记各零件的名称,保存并输出标注文件,之后划分数据集,训练集和测试集的比例为9:1;S13、零件检测模型的训练:针对生产线上的零件分拣问题,搭建基于深度学习YOLO v4目标检测网络的零件识别网络,以CSPDarknet53网络框架作为骨干网络,空间金字塔池化SPP作为网络颈部的附加模块,路径聚合网络PAN作为网络颈部的特征融合模块,YOLOv3作为网络头部;将YOLO v3边界框回归损失中的均方误差MSE替换为考虑预测框与真实框中心点的标准化距离和长宽比信息的重叠度损失CIOU,CIOU损失定义如下:
LCIOU=1-IOU(A,B)+ρ2(Actr,Bctr)/c2+α.v (1)
其中,IOU(A,B)为预测框A与真实框B的重叠度损失IOU,ρ2(Actr,Bctr)/c2为对中心点距离的惩罚项,Actr、Bctr分别为预测框、真实框的中心点坐标,ρ(.)计算两点间的欧式距离,c为A、B最小包围框的对角线长度,α.v为长宽比的惩罚项,α为正数,v衡量长宽比的一致性,具体如下:
Figure BDA0002661292350000021
Figure BDA0002661292350000022
Figure BDA0002661292350000023
其中,wgt、hgt分别为真实框的宽和高,w、h分别为预测框的宽和高;
最后通过训练得到效果好的零件识别模型;
S2、将零件图像的像素坐标转化为世界坐标,具体步骤为:
S21、将图像的像素坐标(u,v)转化为物理坐标系(x,y),转化关系如下:
Figure BDA0002661292350000031
Figure BDA0002661292350000032
其中,(u0,v0)为图像平面的中心点坐标,dx、dy分别为x、y轴上一个像素点的大小;
S22、图像的物理坐标(x,y)转化为相机坐标(xc,yc,zc),转化关系如下:
Figure BDA0002661292350000033
Figure BDA0002661292350000034
其中,f为相机的焦距,zc大小为相机到传送带的距离;
S23、将相机坐标系下的坐标(xc,yc,zc)转换为世界坐标系下的坐标(xw,yw,zw),转化关系如下:
Figure BDA0002661292350000035
其中,R为旋转正交变换矩阵,T为平移变化矩阵;
结合表达式(5)-(9)表达式,可得
Figure BDA0002661292350000036
S3、将零件抓取至对应分拣箱内,具体步骤为:
S31、读取待分拣零件的个数、类别名及其对应的零件坐标和目标分拣箱的坐标;S32、对识别的n个零件进行依次分拣,分拣完成后机械臂归位,传送带启动,进行下一组零件的识别。
优选地,所述S11中,样本数据的采集为:使用工业相机采集1000张样本零件的图片;样本数据的扩充方式为:通过调整图像亮度、对比度、色度、饱和度、加入噪声,以及随机旋转、旋转、翻转和裁剪对样本进行扩充。
优选地,所述S13中,通过训练的零件识别模型同时预测图中零件的类别和位置坐标。
一种基于深度学习的小型零件分拣方法的小型零件分拣系统,其包括运动控制模块、图像采集处理模块和机械控制模块,所述运动控制模块包括传送带和光电开关,传送带负责运送零件,光电开关负责检测零件是否到达图像采集区域;所述图像采集处理模块包括工业相机和计算机,工业相机负责采集零件的图像,计算机对采集的图像进行处理,得到图中零件的类别和坐标位置;所述机械控制模块为机械臂,完成对确定类别和位置的零件的抓取分拣。
优选地,零件的分拣过程为:当系统启动时,传送带启动,开始运送零件,当零件运送到指定位置时,光电开关检测到零件,传送带停止;然后,工业相机开始采集图像,计算机通过训练好的模型预测图片中零件的类别和位置;最后,机械臂开始分拣识别的零件,分拣完成后机械臂归位,传送带启动,继续运送零件,直到下一组零件到达指定位置,开始下一次识别分拣。
与现有技术相比,本发明具有以下有益效果:
(1)零件识别准确率更高,识别速度更快;
(2)通过模型预测得到零件的坐标位置;
(3)零件分拣速度快,准确率高。
附图说明
图1是小型零件分拣方法整体流程图;
图2是零件识别模型训练过程流程图;
图3是零件坐标转换流程图;以及
图4是零件抓取流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要注意的为,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
下面结合附图与具体实施方式对本发明提出的基于深度学习的小型零件分拣方法及其分检系统及检测装置作进一步详细说明。
如图1所示,本发明的基于深度学习的小型零件分拣方法的小型零件分拣系统主要包括运动控制模块、图像采集处理模块及机械控制模块。运动控制模块主要包括传送带和光电开关,传送带负责运送零件,光电开关负责检测零件是否到达图像采集区域;图像采集处理模块主要为工业相机和计算机,工业相机负责采集零件的图像,计算机对采集的图像进行处理,得到图中零件的类别和坐标位置;机械控制模块主要为机械臂,负责对确定类别和位置的零件进行抓取分拣。系统启动时,传送带启动,开始运送零件,当零件运送到指定位置时,光电开关检测到零件,传送带停止;工业相机开始采集图像,计算机通过训练好的模型预测图片中零件的类别和位置;之后机械臂开始分拣识别的零件,分拣完成后机械臂归位,传送带启动,继续运送零件,直到下一组零件到达指定位置,开始下一次识别分拣。
一种基于深度学习的小型零件分拣系统的分拣方法,包括S1、零件识别模型的训练;S2、零件坐标转换;S3、零件抓取至目标分拣箱。
S1、零件识别模型训练的具体过程如图2所示,主要包括如下步骤:
本发明基于YOLO v4目标检测网络训练零件识别模型,通过训练好的模型检测图片中的零件,输出图中零件的类别名和坐标信息。
S11、样本数据的采集和扩充:首先利用工业相机、传送带、光电开关等搭建视觉检测平台,采集1000张样本零件的图片,之后对数据进行扩充,增加输入图像的可变性,使训练出的识别模型具有更高的鲁棒性。
扩充方式:一方面分别调整采集图像的亮度、对比度、色度、饱和度,并随机加入噪声,另一方面对采集的图像进行随机缩放、裁剪、翻转和旋转。最终共得到5000张样本图片。
S12、样本图片的标注:使用图像标注软件labeling对样本图片中的零件进行ROI区域的标注,框选出图中的零件,并标注相应的类别。标注完所有图片后,输出xml文件,保存标注信息。之后划分训练集和测试集,训练集和测试集的比例为9:1,之后将xml文件转换成txt文件。
S13、零件检测模型的训练:YOLO系列目标检测网络的第4版-YOLO v4目标检测网络是在YOLO系列目标检测网络的第3版-YOLO v3的基础上进行改进得来的,相比YOLO v3,YOLO v4的AP和FPS分别提高了10%和12%;在取得同等性能的情况下,YOLO v4的速度是EfficientDet的两倍;YOLO v4在MS COCO数据集上获得了43.5%的AP值(65.7%、AP50),在Tesla V100上实现了大约65FPS的实时速度,YOLO v4在保证检测速度的基础上,大幅提高了模型的检测精度,在目标检测领域较YOLO v3更具优势。
针对生产线上的零件分拣问题,搭建基于深度学习YOLO v4的零件识别网络,以CSPDarknet53网络框架作为骨干网络,空间金字塔池化SPP作为网络颈部Neck的附加模块,路径聚合网络PAN作为网络颈部Neck的特征融合模块,YOLOv3作为网络头部Head;将YOLOv3边界框回归损失中的均方误差MSE替换为考虑预测框与真实框中心点的标准化距离和长宽比信息的重叠度损失CIOU,CIOU损失定义如下:
LCIOU=1-IOU(A,B)+ρ2(Actr,Bctr)/c2+α.v (1)
其中,IOU(A,B)为预测框A与真实框B的重叠度损失IOU损失,ρ2(Actr,Bctr)/c2为对中心点距离的惩罚项,Actr、Bctr分别为预测框、真实框的中心点坐标,ρ(.)计算两点间的欧式距离,c为A、B最小包围框的对角线长度,α.v为长宽比的惩罚项,α为正数,v衡量长宽比的一致性,具体定义如下:
Figure BDA0002661292350000071
Figure BDA0002661292350000072
Figure BDA0002661292350000073
其中,wgt、hgt分别为真实框的宽和高,w、h分别为预测框的宽和高。本发明针对生产线上的小型零件识别问题,设置初始化参数,训练周期train steps=100000,批次大小batch size=16,学习率learning rate=0.00261,动量momentum=0.949,预测框和真实框的IOU阈值IOU threshold=0.213,训练网络,最后输出训练好的网络模型。
一种基于深度学习的小型零件分检系统的分拣方法,其S2中零件坐标转换流程如图3所示,主要包括如下步骤:
机械臂实现抓取零件的前提是知道零件的位置信息,因此在机械臂抓取零件前需要对模型识别的坐标结果进行坐标转换从而得到所需的坐标信息。
S21、图像的像素坐标转化为物理坐标系:
模型识别的坐标结果为图像的像素坐标(u,v),其对应的物理坐标为(x,y),像素坐标和物理坐标的转化关系如下:
Figure BDA0002661292350000074
Figure BDA0002661292350000075
其中,(u0,v0)为图像平面的中心点坐标,dx、dy分别为x、y轴上一个像素点的大小。
S22、图像的物理坐标转化为相机坐标:图像的物理坐标(x,y)与相机坐标(xc,yc,zc)的转化关系如下:
Figure BDA0002661292350000081
Figure BDA0002661292350000082
其中,f为相机的焦距,zc大小为相机到传送带的距离。
S23、相机坐标转化为世界坐标:相机坐标(xc,yc,zc)与世界坐标(xw,yw,zw)的转化关系如下:
Figure BDA0002661292350000083
其中,R为旋转正交变换矩阵,T为平移变化矩阵。
结合上面表达式(5)-(9),可得
Figure BDA0002661292350000084
一种基于深度学习的小型零件分检系统的分拣方法,其S3中零件抓取流程如图4所示,主要包括如下步骤:
S31、零件类别名、坐标信息以及目标分拣箱坐标的获取:读取零件识别结果中的零件个数n、各零件的类别名及其对应的坐标转化后的位置信息和类别所对应的目标分拣箱的位置信息。
S32、机械臂抓取零件:机械臂抓取第i个零件到其对应的分拣箱,之后i加1,判断i是否大于n。i不大于n时,还有零件未分拣,继续抓取下一个零件;i大于n时,零件全部分拣完毕,机械臂归位,传送带启动,进行下一组零件的分拣。
本发明的实例在Intel CORE i7-9750H,2.60GHz处理器、24.0G内存、64位Windows操作系统的计算机上进行仿真实验。实验所用相机为大恒水星MER-500-14GC-P工业相机,分辨率为2592×1944,帧率为14FPS。机械臂为ABB公司的六轴机器人IRB6620,其工作范围最大可达±300度,最大负载可达150kg。实验所用零件为5种不同的小型零件。
零件图片样本数据通过工业相机采集1000张原始图片,通过随机旋转、裁剪、调整亮度等方式将样本图片扩充到5000张。使用图像标注软件labeling对样本进行标注,将训练集与测试集的比例划分为9:1。
使用Windows系统下的TensorFlow平台对基于YOLO v4的目标检测网络进行训练,得到零件识别模型。通过训练好的模型对相机采集的图像进行零件类型和位置的预测。
最后通过机械臂对识别的零件进行逐一抓取分拣。
以上所述各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应该理解:其依然能对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (5)

1.一种基于深度学习的小型零件分拣系统的分拣方法,其特征在于,其包括以下步骤:
S1、基于YOLO v4目标检测网络训练零件识别模型,通过训练好的零件识别模型检测图片中的零件,输出图中零件的类别名和坐标信息,具体步骤为:
S11、对样本数据进行采集和扩充;
S12、对样本图片进行标注:使用图像标注软件对样本数据进行标注,框选出各图中的零件并标记各零件的名称,保存并输出标注文件,之后划分数据集,训练集和测试集的比例为9:1;
S13、零件检测模型的训练:针对生产线上的零件分拣问题,搭建基于深度学习YOLO v4目标检测网络的零件识别网络,以CSPDarknet53网络框架作为骨干网络,空间金字塔池化SPP作为网络颈部的附加模块,路径聚合网络PAN作为网络颈部的特征融合模块,YOLOv3作为网络头部;将YOLO v3边界框回归损失中的均方误差MSE替换为考虑预测框与真实框中心点的标准化距离和长宽比信息的重叠度损失CIOU,CIOU损失定义如下:
LCIOU=1-IOU(A,B)+ρ2(Actr,Bctr)/c2+α.v (1)
其中,IOU(A,B)为预测框A与真实框B的重叠度损失IOU,ρ2(Actr,Bctr)/c2为对中心点距离的惩罚项,Actr、Bctr分别为预测框、真实框的中心点坐标,ρ(.)计算两点间的欧式距离,c为A、B最小包围框的对角线长度,α.v为长宽比的惩罚项,α为正数,v衡量长宽比的一致性,具体如下:
Figure FDA0002661292340000011
Figure FDA0002661292340000012
Figure FDA0002661292340000013
其中,wgt、hgt分别为真实框的宽和高,w、h分别为预测框的宽和高;
最后通过训练得到效果好的零件识别模型;
S2、将零件图像的像素坐标转化为世界坐标,具体步骤为:
S21、将图像的像素坐标(u,v)转化为物理坐标系(x,y),转化关系如下:
Figure FDA0002661292340000021
Figure FDA0002661292340000022
其中,(u0,v0)为图像平面的中心点坐标,dx、dy分别为x、y轴上一个像素点的大小;
S22、图像的物理坐标(x,y)转化为相机坐标(xc,yc,zc),转化关系如下:
Figure FDA0002661292340000023
Figure FDA0002661292340000024
其中,f为相机的焦距,zc大小为相机到传送带的距离;
S23、将相机坐标系下的坐标(xc,yc,zc)转换为世界坐标系下的坐标(xw,yw,zw),转化关系如下:
Figure FDA0002661292340000025
其中,R为旋转正交变换矩阵,T为平移变化矩阵;
结合表达式(5)-(9)表达式,可得
Figure FDA0002661292340000026
S3、将零件抓取至对应分拣箱内,具体步骤为:
S31、读取待分拣零件的个数、类别名及其对应的零件坐标和目标分拣箱的坐标;
S32、对识别的n个零件进行依次分拣,分拣完成后机械臂归位,传送带启动,进行下一组零件的识别。
2.根据权利要求1所述的基于深度学习的小型零件分拣系统的分拣方法,其特征在于,所述S11中,样本数据的采集为:使用工业相机采集1000张样本零件的图片;样本数据的扩充方式为:通过调整图像亮度、对比度、色度、饱和度、加入噪声,以及随机旋转、旋转、翻转和裁剪对样本进行扩充。
3.根据权利要求1所述的基于深度学习的小型零件分拣系统的分拣方法,其特征在于,所述S13中,通过训练的零件识别模型同时预测图中零件的类别和位置坐标。
4.一种根据权利要求1所述基于深度学习的小型零件分拣方法的小型零件分拣系统,其包括运动控制模块、图像采集处理模块和机械控制模块,其特征在于,所述运动控制模块包括传送带和光电开关,传送带负责运送零件,光电开关负责检测零件是否到达图像采集区域;所述图像采集处理模块包括工业相机和计算机,工业相机负责采集零件的图像,计算机对采集的图像进行处理,得到图中零件的类别和坐标位置;所述机械控制模块为机械臂,完成对确定类别和位置的零件的抓取分拣。
5.根据权利要求4所述的基于深度学习的小型零件分拣方法的小型零件分拣系统,其特征在于,所述对确定类别和位置的零件的抓取分拣为:
当系统启动时,传送带启动,开始运送零件,当零件运送到指定位置时,光电开关检测到零件,传送带停止;
然后,工业相机开始采集图像,计算机通过训练好的模型预测图片中零件的类别和位置;
最后,机械臂开始分拣识别的零件,分拣完成后机械臂归位,传送带启动,继续运送零件,直到下一组零件到达指定位置,开始下一次识别分拣。
CN202010905536.3A 2020-09-01 2020-09-01 基于深度学习的小型零件分拣方法及其分拣系统 Active CN112170233B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010905536.3A CN112170233B (zh) 2020-09-01 2020-09-01 基于深度学习的小型零件分拣方法及其分拣系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010905536.3A CN112170233B (zh) 2020-09-01 2020-09-01 基于深度学习的小型零件分拣方法及其分拣系统

Publications (2)

Publication Number Publication Date
CN112170233A true CN112170233A (zh) 2021-01-05
CN112170233B CN112170233B (zh) 2021-08-06

Family

ID=73924051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010905536.3A Active CN112170233B (zh) 2020-09-01 2020-09-01 基于深度学习的小型零件分拣方法及其分拣系统

Country Status (1)

Country Link
CN (1) CN112170233B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784717A (zh) * 2021-01-13 2021-05-11 中北大学 一种基于深度学习的管件自动分拣方法
CN113066087A (zh) * 2021-04-29 2021-07-02 中奥智能工业研究院(南京)有限公司 一种零部件智能检测与标签系统及方法
CN113111712A (zh) * 2021-03-11 2021-07-13 稳健医疗用品股份有限公司 一种袋装产品的ai识别定位方法、系统及装置
CN113192058A (zh) * 2021-05-21 2021-07-30 中国矿业大学(北京) 一种基于计算机视觉的砖垛智能装车系统及其装车方法
CN113343355A (zh) * 2021-06-08 2021-09-03 四川大学 基于深度学习的飞机蒙皮型面检测路径规划方法
CN113715012A (zh) * 2021-09-03 2021-11-30 西安建筑科技大学 一种遥控器零件自动装配方法和系统
CN113751365A (zh) * 2021-09-28 2021-12-07 西南科技大学 基于双光相机的核废物检测分拣系统及方法
CN113770059A (zh) * 2021-09-16 2021-12-10 中冶东方工程技术有限公司 一种钢结构零件智能分拣系统及方法
CN113996545A (zh) * 2021-11-23 2022-02-01 昆明理工大学 一种基于计算机视觉的三七主根快速分选生产线
CN114082661A (zh) * 2021-09-28 2022-02-25 中国天楹股份有限公司 一种基于深度学习的可回收物分选系统及方法
CN114240885A (zh) * 2021-12-17 2022-03-25 成都信息工程大学 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN115816469A (zh) * 2023-02-21 2023-03-21 北京科技大学 一种基于机器视觉的云化plc控制物料分拣方法及系统
CN116061187A (zh) * 2023-03-07 2023-05-05 睿尔曼智能科技(江苏)有限公司 一种复合机器人对货架商品识别、定位和抓取方法
CN116503816A (zh) * 2023-06-28 2023-07-28 杭州久展电子有限公司 一种数据线缆的接脚分线检测方法
CN117124302A (zh) * 2023-10-24 2023-11-28 季华实验室 一种零件分拣方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684942A (zh) * 2018-12-08 2019-04-26 厦门大学嘉庚学院 一种基于视觉识别的全自动餐具分拣方法
CN110135503A (zh) * 2019-05-19 2019-08-16 重庆理工大学 一种装配机器人零件深度学习识别方法
WO2019180255A1 (en) * 2018-03-22 2019-09-26 Elior Group Ware identification and handling apparatus
CN110414559A (zh) * 2019-06-26 2019-11-05 武汉大学 智能零售柜商品目标检测统一框架的构建方法及商品识别方法
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN111151463A (zh) * 2019-12-24 2020-05-15 北京无线电测量研究所 一种基于3d视觉的机械臂分拣抓取系统及方法
CN111421539A (zh) * 2020-04-01 2020-07-17 电子科技大学 一种基于计算机视觉的工业零件智能识别与分拣系统
CN111429418A (zh) * 2020-03-19 2020-07-17 天津理工大学 一种基于YOLO v3神经网络的工业零件检测方法
US20200272813A1 (en) * 2019-02-21 2020-08-27 Tata Consultancy Services Limited Hand detection in first person view

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019180255A1 (en) * 2018-03-22 2019-09-26 Elior Group Ware identification and handling apparatus
CN109684942A (zh) * 2018-12-08 2019-04-26 厦门大学嘉庚学院 一种基于视觉识别的全自动餐具分拣方法
US20200272813A1 (en) * 2019-02-21 2020-08-27 Tata Consultancy Services Limited Hand detection in first person view
CN110135503A (zh) * 2019-05-19 2019-08-16 重庆理工大学 一种装配机器人零件深度学习识别方法
CN110414559A (zh) * 2019-06-26 2019-11-05 武汉大学 智能零售柜商品目标检测统一框架的构建方法及商品识别方法
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN111151463A (zh) * 2019-12-24 2020-05-15 北京无线电测量研究所 一种基于3d视觉的机械臂分拣抓取系统及方法
CN111429418A (zh) * 2020-03-19 2020-07-17 天津理工大学 一种基于YOLO v3神经网络的工业零件检测方法
CN111421539A (zh) * 2020-04-01 2020-07-17 电子科技大学 一种基于计算机视觉的工业零件智能识别与分拣系统

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784717B (zh) * 2021-01-13 2022-05-13 中北大学 一种基于深度学习的管件自动分拣方法
CN112784717A (zh) * 2021-01-13 2021-05-11 中北大学 一种基于深度学习的管件自动分拣方法
CN113111712A (zh) * 2021-03-11 2021-07-13 稳健医疗用品股份有限公司 一种袋装产品的ai识别定位方法、系统及装置
CN113066087A (zh) * 2021-04-29 2021-07-02 中奥智能工业研究院(南京)有限公司 一种零部件智能检测与标签系统及方法
CN113066087B (zh) * 2021-04-29 2022-08-05 中奥智能工业研究院(南京)有限公司 一种零部件智能检测与标签系统及方法
CN113192058A (zh) * 2021-05-21 2021-07-30 中国矿业大学(北京) 一种基于计算机视觉的砖垛智能装车系统及其装车方法
CN113192058B (zh) * 2021-05-21 2021-11-23 中国矿业大学(北京) 一种基于计算机视觉的砖垛智能装车系统及其装车方法
CN113343355B (zh) * 2021-06-08 2022-10-18 四川大学 基于深度学习的飞机蒙皮型面检测路径规划方法
CN113343355A (zh) * 2021-06-08 2021-09-03 四川大学 基于深度学习的飞机蒙皮型面检测路径规划方法
CN113715012A (zh) * 2021-09-03 2021-11-30 西安建筑科技大学 一种遥控器零件自动装配方法和系统
CN113770059A (zh) * 2021-09-16 2021-12-10 中冶东方工程技术有限公司 一种钢结构零件智能分拣系统及方法
CN114082661A (zh) * 2021-09-28 2022-02-25 中国天楹股份有限公司 一种基于深度学习的可回收物分选系统及方法
CN113751365A (zh) * 2021-09-28 2021-12-07 西南科技大学 基于双光相机的核废物检测分拣系统及方法
CN113996545A (zh) * 2021-11-23 2022-02-01 昆明理工大学 一种基于计算机视觉的三七主根快速分选生产线
CN114240885B (zh) * 2021-12-17 2022-08-16 成都信息工程大学 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN114240885A (zh) * 2021-12-17 2022-03-25 成都信息工程大学 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN115816469A (zh) * 2023-02-21 2023-03-21 北京科技大学 一种基于机器视觉的云化plc控制物料分拣方法及系统
CN116061187A (zh) * 2023-03-07 2023-05-05 睿尔曼智能科技(江苏)有限公司 一种复合机器人对货架商品识别、定位和抓取方法
CN116061187B (zh) * 2023-03-07 2023-06-16 睿尔曼智能科技(江苏)有限公司 一种复合机器人对货架商品识别、定位和抓取方法
CN116503816A (zh) * 2023-06-28 2023-07-28 杭州久展电子有限公司 一种数据线缆的接脚分线检测方法
CN116503816B (zh) * 2023-06-28 2023-09-01 杭州久展电子有限公司 一种数据线缆的接脚分线检测方法
CN117124302A (zh) * 2023-10-24 2023-11-28 季华实验室 一种零件分拣方法、装置、电子设备及存储介质
CN117124302B (zh) * 2023-10-24 2024-02-13 季华实验室 一种零件分拣方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112170233B (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN112170233B (zh) 基于深度学习的小型零件分拣方法及其分拣系统
CN107804514B (zh) 一种基于图像识别的牙刷分拣方法
CN111523486B (zh) 一种基于改进CenterNet的机械臂抓取检测方法
CN112784717B (zh) 一种基于深度学习的管件自动分拣方法
CN112295933B (zh) 一种机器人快速分拣货物的方法
CN115816460B (zh) 一种基于深度学习目标检测与图像分割的机械手抓取方法
CN115330734A (zh) 一种基于三维目标检测和点云缺陷补全的自动化机器人补焊系统
CN112560704A (zh) 一种多特征融合的视觉识别方法及系统
CN114155610B (zh) 基于上半身姿态估计的面板装配关键动作识别方法
CN108830908A (zh) 一种基于人工神经网络的魔方颜色识别方法
Dong et al. A convolution neural network for parts recognition using data augmentation
CN109079777B (zh) 一种机械臂手眼协调作业系统
CN112947458B (zh) 基于多模态信息的机器人准确抓取方法及计算机可读介质
CN113012228A (zh) 一种工位定位系统及基于深度学习的工件定位方法
Wangli et al. Foxtail Millet ear detection approach based on YOLOv4 and adaptive anchor box adjustment
Lin et al. Target recognition and optimal grasping based on deep learning
Shi et al. A fast workpiece detection method based on multi-feature fused SSD
Li et al. Robot vision model based on multi-neural network fusion
Cho et al. Increased performace of FPGA-based color classification system
Ma et al. The Workpiece Sorting Method Based on Improved YOLOv5 For Vision Robotic Arm
CN111783537A (zh) 一种基于目标检测特征的两阶段快速抓取检测方法
CN114399789B (zh) 一种基于静态手势识别的机械臂远程控制方法
Lee et al. Deep Learning based Visual Object Recognition for Manipulator Grasps
Zhang et al. DGGCNN: An improved generative grasping convolutional neural networks
Kijdech et al. Pick-and-place application using a dual arm collaborative robot and an RGB-D camera with YOLOv5

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant