CN112016462A - 一种基于深度学习模型的回收瓶分类方法 - Google Patents

一种基于深度学习模型的回收瓶分类方法 Download PDF

Info

Publication number
CN112016462A
CN112016462A CN202010884925.2A CN202010884925A CN112016462A CN 112016462 A CN112016462 A CN 112016462A CN 202010884925 A CN202010884925 A CN 202010884925A CN 112016462 A CN112016462 A CN 112016462A
Authority
CN
China
Prior art keywords
deep learning
learning model
image data
data set
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010884925.2A
Other languages
English (en)
Inventor
杨海东
李俊宇
黄坤山
彭文瑜
林玉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute
Foshan Guangdong University CNC Equipment Technology Development Co. Ltd
Original Assignee
Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute
Foshan Guangdong University CNC Equipment Technology Development Co. Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute, Foshan Guangdong University CNC Equipment Technology Development Co. Ltd filed Critical Foshan Nanhai Guangdong Technology University CNC Equipment Cooperative Innovation Institute
Priority to CN202010884925.2A priority Critical patent/CN112016462A/zh
Publication of CN112016462A publication Critical patent/CN112016462A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/04Sorting according to size
    • B07C5/12Sorting according to size characterised by the application to particular articles, not otherwise provided for
    • B07C5/122Sorting according to size characterised by the application to particular articles, not otherwise provided for for bottles, ampoules, jars and other glassware
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习模型的回收瓶分类方法,包括如下步骤:S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集;S02:建立深度学习模型,采用训练图像数据集对所述深度学习模型进行训练;S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型;S04:对预测模型加载在回收装置中,所述预测模型的输出结果控制机械手对回收瓶进行分类。本发明提供的的一种基于深度学习模型的回收瓶分类方法,用以提高回收瓶的识别和回收效率。

Description

一种基于深度学习模型的回收瓶分类方法
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于深度学习模型的回收瓶分类方法。
背景技术
随着我国对生态保护和环境卫生的重视程度不断提升,对垃圾的回收利用越来越规范化和产业化,在垃圾回收过程中希望垃圾回收的效率得到提升,因此智能化垃圾处理和回收行业快速发展。利用自动化设备来分担一部分人工分拣垃圾的工作,以此提高回收效率和质量。
其中自动化设备中涉及到深度学习、计算机视觉和图像处理等领域。目前,由于垃圾的数量巨大,而且垃圾回收处理行业的人员较少,大多非青壮年,回收环境较差,人工分拣处理,效率较低,误检率较高。尤其对于垃圾中的回收瓶,其回收价值高,若能实现高效回收,既能节约资源,也能变废为宝,创造新的价值。
若能利用自动化设备分拣,采用深度学习的目标检测算法,在环境稳定的环境下,识别准确且能实时返回检测给分拣自动化设备,则能集中化、高效率的完成垃圾分拣工作,大大减少人的工作量。因此,如何训练出能够准确识别垃圾类别的深度学习模型成为急需解决的问题。
发明内容
针对现有技术的不足,本发明的目的旨在提供一种基于深度学习模型的回收瓶分类方法,用以提高回收瓶的识别和回收效率。
为实现上述目的,本发明采用如下技术方案:一种基于深度学习模型的回收瓶分类方法,包括如下步骤:
S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集;
S02:建立深度学习模型,采用训练图像数据集对所述深度学习模型进行训练;所述深度学习模型包括主分支网络、预测分支和修正分支;
S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型;
S04:对预测模型加载在回收装置中,所述预测模型的输出结果控制机械手对回收瓶进行分类。
进一步的,所述步骤S01具体包括:
S011:利用工业相机拍摄传送带上回收瓶视频;
S012:提取视频中相同帧间隔的图像,获得回收瓶图像;
S013:删除回收瓶图像中不合格图像,对剩余图像进行标注和定义类别;
S014:将标注和定义类别之后的图像分类形成训练图像数据集、验证图像数据集和测试图像数据集。
进一步的,所述步骤S014中训练图像数据集、验证图像数据集和测试图像数据集中图像的个数比例为6:2:2。
进一步的,所述主分支网络包括特征提取部分和定位部分,所述预测分支和修正分支嵌入在特征增强部分和定位部分之间。
进一步的,所述深度学习模型采用RepPointsV2模型。
进一步的,所述主分支网络为anchor-free目标预测模型。
进一步的,所述深度学习模型的损失函数L=LRepPoints1Lcorner2Lforeground,其中,LRepPoints表示主分支网络的损失函数,Lcorner表示修正分支的损失函数,Lforeground表示预测分支的损失函数;λ1和λ2表示设置的损失函数系数。
进一步的,所述步骤S02中,训练图像数据集中的图像输入至深度学习模型中,所述特征提取部分输出特征图;特征图同时进入定位部分、预测分支和修正分支;
所述特征图进入定位部分形成预测框;
所述特征图进入预测分支中的共享卷积层后得到用于预测前景的分热图;
所述特征图进入修正分支中进行角点池化,输出值用于指导预测框的修正。
进一步的,所述回收装置包括相机、传输线、位于传输线末端的机械手以及不同类别回收瓶的回收筐,回收瓶在传输线上传输时,相机实时拍摄图像并将图像传输至预测模型进行识别,所述预测模型输出对应图像的位置以及类别,并将输出结果转换为机械手的控制信号,控制机械手将对应回收瓶放置在对应的回收筐中。
进一步的,所述步骤S04中还包括将预测模型加载在回收装置中并进行现场测试,若预测模型的准确率低于阈值,需要重新进行深度学习模型的训练
本发明的有益效果主要体现在以下三个方面:1、传统回收采用人工分拣处理,效率较低,误检率较高。本发明利用自动化设备分拣,加载可以自动识别类别的预测模型,在回收环境稳定的环境下,识别准确且能实时返回检测结果给分拣自动化设备,整个装置能够集中化、高效率的完成垃圾分拣工作,大大减少人的工作量。
2、本发明中预测模型较于一般的回归预测模型,添加了预测分支和修正分支,使得模型识别更加精准,回归更有效并且适用于连续目标变量。通过多任务学习获得更好的功能,通过包含验证提示来增强功能以及通过两种方法进行联合推理。因此,仔细地组合它们以利用它们的好处通常能达到更好的检测精度。
3、本发明中采用anchor-free目标预测模型作为主分支网络,能够达到比anchor-based的目标检测算法更好的识别精度,并且通常来讲求解回归问题比求解验证问题效率更高。
4、本发明中方法也可以改进FCOS等回归检测器,应用到更多的其他模型上协助推理出更好的模型精度,具有广泛的适用性。
附图说明
附图1为本发明基于深度学习模型的回收瓶分类方法的流程图;
附图2为特征提取部分的网络结构示意图;
附图3为其中一种预测模型对图像的预测效果图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述:
如附图1所示,本发明提供的一种基于深度学习模型的回收瓶分类方法,包括如下步骤:
S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集。本发明中回收瓶可以但不限于为各种类型的可回收塑料瓶。具体可以包括以下步骤:
S011:利用工业相机拍摄传送带上回收瓶视频;
S012:通过opencv(图像处理库)提取视频中相同帧间隔的图像,获得回收瓶图像,此时的图像为原始图像数据,在此基础上可以对原始图像进行翻转,对图像进行上下、左右对称翻转,对图像进行放射变化,形成新的图像,依次增加数据集的多样性,进而增加后续模型训练的精度。
S013:删除回收瓶图像中不合格图像,删除的图像包括没有瓶子、光源效果不一致等有问题的图像;采用labelImg软件对剩余图像进行标注和定义类别,获得标注信息文件xml文件;
S014:将标注和定义类别之后的图像分类形成训练图像数据集、验证图像数据集和测试图像数据集,生成对应数据集中包含图像的文件名文本,分别为train.txt,val.txt,test.txt。训练图像数据集、验证图像数据集和测试图像数据集中图像的个数比例为6:2:2;本步骤中分类采用随机分类方法进行训练图像数据集、验证图像数据集和测试图像数据集分类,每个数据集中图像都包含标注和类别。
S02:建立深度学习模型,采用训练图像数据集对深度学习模型进行训练;深度学习模型包括主分支网络、预测分支和修正分支。其中,主分支网络包括特征提取部分和定位部分,预测分支和修正分支嵌入在特征增强部分和定位部分之间。训练图像数据集中的图像输入至深度学习模型中,特征提取部分输出特征图;特征图同时进入定位部分、预测分支和修正分支;特征图进入定位部分形成预测框;特征图进入预测分支中的共享卷积层后得到用于预测前景的分热图;特征图进入修正分支中进行角点池化,输出值用于指导预测框的修正。本发明中深度学习模型可以采用RepPointsV2模型。主分支网络可以为anchor-free目标预测模型。
采用RepPointsV2模型作为深度学习模型时,其主分支网络是一个纯回归的anchor-free的目标预测模型,分为用FPN(Feature Pyramid Networks,特征金字塔网络)进行多尺度特征提取,然后利用卷积和全连接层进行回归得到目标候选框的左上角点和右下角点的坐标值。为了融合验证方法来增强基于纯回归的模型,添加两个分支,一个分支是利用前景区域的强烈提示来帮助目标候选框的生成,另一个分支是通过conner关角点位置的信息来修正候选框的准确性,前者融合作用在特征层提取后面,后者融合作用在结果层,以此提高模型的精准度。
具体的,模型的处理流程包括:首先将图像数据(转化成224×224大小)输入到网络模型的特征提取部分。利用基于ResNet50残差神经网路的FPN提取多尺度的特征,定位部分结构如图2所示,它目的是为了改进CNN网络的特征提取方式,从而可以使最终输出的特征更好地表示出输入图片各个维度的信息。它的基本过程有三个分别为:自下至上的通路即自下至上的不同维度特征生成,每个阶段利用卷积和池化,特征图尺度减半,获得更深层的语义信息,conv2到conv5的的维度分别是64,128,256,512;自上至下的通路即自上至下的特征补充增强,通过融合深层的语音信息;CNN网络层特征与最终输出的各维度特征之间的关联表达,获得P2,p3,p4,p5四个不同尺度的特征图输出,他们拥有相同的维度,都是256。
在得到特征图后,接下来特征图进入定位部分,定位部分需要完成定位任务和分类任务,定位任务实施过程特征图即经过三个共享3×3卷积,维度256,然后通过一个3×3×256和1×1×18的卷积得到分类任务的可变形卷积的卷积核索引点的偏移量offsets1,对偏移后的每组reppoints1生成预测框,利用SmoothL1Loss计算和真值之间的损失:
Figure BDA0002655281830000061
σk表示偏移值,σ'k表示真实值。
以此来优化offsets1的偏移量,然后将三个共享卷积的输出输入到该可变形卷积中,接着利用1×1×8卷积核来得到对应8个分类的特征图,通过阈值的设置和概率计算得到分类,通过FocalLoss计算损失指导训练。
分类任务将三个共享卷积的输出和offsets1输入到预测分支,经过一个3×3×256的可变形卷积,然后经过1×1×18的卷积降为成18个维度,分别代表每个卷积核对应点的x和y轴的索引点偏移量,输出得到offsets2,然后加上offsets1的偏移量,得到最后的reppoints2,以9个点为一组候选框预测点的特征点,然后通过前两个点设置为左上和右下两个极值点,进而可以转化成预测候选框,转换函数为:
Figure BDA0002655281830000071
同样利用SmoothL1Loss来计算预测框和真值之间的损失值,用于反向传播。至此,是主分支网络的训练结构步骤。
本发明中预测分支利用前景区域的强烈提示来帮助目标候选框的生成。通过将FPN特征提取后的多尺度特征图结果,经过一个共享3×3的支路共享卷积操作,然后再经过一个1×1的卷积操作得到用于预测前景得分热图,嵌入到主分支过程的FPN特征提取之后,用于加强前景的预测。
本发明中修正分支利用角点验证的操作将一个分数与特征图中的每个点关联起来,表明它是一个角点的概率。做法是同样和分支一一样的输入,通过将FPN特征提取后的多尺度特征图结果作为输入,经过一个角点池化,然后经过一个1×1的卷积,最后将输出和主分支网络的offset1进行concat指导预测框的进一步修正,用于预测热图得分和亚像素偏移量,以修正预测框的准确性。
鉴于本发明中深度学习模型包含主分支网络、预测分支和修正分支,所以在训练中,我们设置深度学习模型的损失函数L=LRepPoints1Lcorner2Lforeground,其中,LRepPoints表示主分支网络的损失函数,Lcorner表示修正分支的损失函数,Lforeground表示预测分支的损失函数;λ1和λ2表示设置的损失函数系数。
S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型。
在训练过程中,网络的训练参数如下:Batch size=32,num_classes=9,Learning rate=lr=0.0025,total_epochs=20,Iteration=5000,score_thr=0.05。
通过指令python tools/train.py${CONFIG_FILE}[optional arguments]可以开始训练。
训练完成之后得到学习到数据的pth权重文件,可以通过指令python tools/test.py${CONFIG_FILE}${CHECKPOINT_FILE}[--out${RESULT_FILE}][--eval${EVAL_METRICS}][--show]可以测试模型的训练实际效果,观察输出的预测图像可以检查出训练时,有待优化地方。
根据模型测试图像输出结果,如图3所示的预测图像,出现了许多重读预测框的情况,可能由于阈值设置的较小,或者是图像标注上的出错,通过检查修正等网络参数和数据集的错误之后,然后将修改后的数据集输入到参数调整后的模型中去,重新训练,一直到训练的模型对目标塑料瓶有比较高的精度的预测效果为止,即可以得到稳定的预测模型。
预测模型在正式应用之前需要进行测试,将之前准备的测试图像数据集中图像输入到训练完成之后的模型中进行预测,然后查看所有的预测效果,检查是否有出现没有预测到的目标,或者是预测框出现重叠,又或者是预测框的精度不高等问题,可以对应的增加数据集样本数据量,或者检查数据标注文件的信息是否出现错误,或者数据增强影响了模型的学习。
S04:对预测模型加载在回收装置中,预测模型的输出结果控制机械手对回收瓶进行分类。
将预测模型加载在回收装置中并进行现场测试,如果现场测试的预测效果比较差就需要重新检查现场环境是否发生变化而导致数据的环境和训练的数据集有差异需要重复,或者预测的阈值需要调整等问题,直到现场预测稳定。稳定之后的预测模型才能用以回收瓶识别。
回收装置包括相机、传输线、位于传输线末端的机械手以及不同类别回收瓶的回收筐,回收瓶在传输线上传输时,相机实时拍摄图像并将图像传输至预测模型进行识别,预测模型输出对应图像的位置以及类别,并将输出结果转换为机械手的控制信号,控制机械手将对应回收瓶放置在对应的回收筐中。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。

Claims (10)

1.一种基于深度学习模型的回收瓶分类方法,其特征在于,包括如下步骤:
S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集;
S02:建立深度学习模型,采用训练图像数据集对所述深度学习模型进行训练;所述深度学习模型包括主分支网络、预测分支和修正分支;
S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型;
S04:对预测模型加载在回收装置中,所述预测模型的输出结果控制机械手对回收瓶进行分类。
2.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S01具体包括:
S011:利用工业相机拍摄传送带上回收瓶视频;
S012:提取视频中相同帧间隔的图像,获得回收瓶图像;
S013:删除回收瓶图像中不合格图像,对剩余图像进行标注和定义类别;
S014:将标注和定义类别之后的图像分类形成训练图像数据集、验证图像数据集和测试图像数据集。
3.根据权利要求2所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S014中训练图像数据集、验证图像数据集和测试图像数据集中图像的个数比例为6:2:2。
4.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述主分支网络包括特征提取部分和定位部分,所述预测分支和修正分支嵌入在特征增强部分和定位部分之间。
5.根据权利要求4所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述深度学习模型采用RepPointsV2模型。
6.根据权利要求5所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述主分支网络为anchor-free目标预测模型。
7.根据权利要求4所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述深度学习模型的损失函数L=LRepPoints1Lcorner2Lforeground,其中,LRepPoints表示主分支网络的损失函数,Lcorner表示修正分支的损失函数,Lforeground表示预测分支的损失函数;λ1和λ2表示设置的损失函数系数。
8.根据权利要求4所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S02中,训练图像数据集中的图像输入至深度学习模型中,所述特征提取部分输出特征图;特征图同时进入定位部分、预测分支和修正分支;
所述特征图进入定位部分形成预测框;
所述特征图进入预测分支中的共享卷积层后得到用于预测前景的分热图;
所述特征图进入修正分支中进行角点池化,输出值用于指导预测框的修正。
9.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述回收装置包括相机、传输线、位于传输线末端的机械手以及不同类别回收瓶的回收筐,回收瓶在传输线上传输时,相机实时拍摄图像并将图像传输至预测模型进行识别,所述预测模型输出对应图像的位置以及类别,并将输出结果转换为机械手的控制信号,控制机械手将对应回收瓶放置在对应的回收筐中。
10.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S04中还包括将预测模型加载在回收装置中并进行现场测试,若预测模型的准确率低于阈值,需要重新进行深度学习模型的训练。
CN202010884925.2A 2020-08-28 2020-08-28 一种基于深度学习模型的回收瓶分类方法 Pending CN112016462A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010884925.2A CN112016462A (zh) 2020-08-28 2020-08-28 一种基于深度学习模型的回收瓶分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010884925.2A CN112016462A (zh) 2020-08-28 2020-08-28 一种基于深度学习模型的回收瓶分类方法

Publications (1)

Publication Number Publication Date
CN112016462A true CN112016462A (zh) 2020-12-01

Family

ID=73502798

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010884925.2A Pending CN112016462A (zh) 2020-08-28 2020-08-28 一种基于深度学习模型的回收瓶分类方法

Country Status (1)

Country Link
CN (1) CN112016462A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034494A (zh) * 2021-04-20 2021-06-25 佛山市南海区广工大数控装备协同创新研究院 一种基于深度学习的橡胶密封圈缺陷检测方法
CN113111792A (zh) * 2021-04-16 2021-07-13 东莞市均谊视觉科技有限公司 一种基于迁移学习的饮料瓶回收视觉检测方法
CN113743470A (zh) * 2021-08-04 2021-12-03 浙江联运环境工程股份有限公司 自动破袋分类箱基于ai算法垃圾识别精度提升方法
CN114511750A (zh) * 2022-04-20 2022-05-17 科大天工智能装备技术(天津)有限公司 一种垃圾分类方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934255A (zh) * 2019-01-22 2019-06-25 小黄狗环保科技有限公司 一种适用于饮料瓶回收机投递物分类识别的模型融合方法
CN110116415A (zh) * 2019-06-12 2019-08-13 中北大学 一种基于深度学习的瓶罐类垃圾识别分类机器人
CN110866561A (zh) * 2019-11-18 2020-03-06 佛山市南海区广工大数控装备协同创新研究院 一种基于图像识别的塑料瓶颜色分选方法
CN110909660A (zh) * 2019-11-19 2020-03-24 佛山市南海区广工大数控装备协同创新研究院 一种基于目标检测的塑料瓶检测与定位方法
CN111445368A (zh) * 2020-03-16 2020-07-24 五邑大学 基于机器视觉与深度学习的垃圾分类方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934255A (zh) * 2019-01-22 2019-06-25 小黄狗环保科技有限公司 一种适用于饮料瓶回收机投递物分类识别的模型融合方法
CN110116415A (zh) * 2019-06-12 2019-08-13 中北大学 一种基于深度学习的瓶罐类垃圾识别分类机器人
CN110866561A (zh) * 2019-11-18 2020-03-06 佛山市南海区广工大数控装备协同创新研究院 一种基于图像识别的塑料瓶颜色分选方法
CN110909660A (zh) * 2019-11-19 2020-03-24 佛山市南海区广工大数控装备协同创新研究院 一种基于目标检测的塑料瓶检测与定位方法
CN111445368A (zh) * 2020-03-16 2020-07-24 五邑大学 基于机器视觉与深度学习的垃圾分类方法、装置及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YIHONG CHEN 等: "RepPoints v2: Verification Meets Regression for Object Detection", 《ARXIV:2007.08508V1》, pages 1 - 14 *
ZE YANG 等: "RepPoints: Point Set Representation for Object Detection", 《ARXIV:1904.11490V2》, pages 99 - 101 *
王浩: "基于深度残差网络ResNet的废料瓶分类系统", 《科技与创新》, no. 14, pages 71 - 72 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111792A (zh) * 2021-04-16 2021-07-13 东莞市均谊视觉科技有限公司 一种基于迁移学习的饮料瓶回收视觉检测方法
CN113034494A (zh) * 2021-04-20 2021-06-25 佛山市南海区广工大数控装备协同创新研究院 一种基于深度学习的橡胶密封圈缺陷检测方法
CN113743470A (zh) * 2021-08-04 2021-12-03 浙江联运环境工程股份有限公司 自动破袋分类箱基于ai算法垃圾识别精度提升方法
CN114511750A (zh) * 2022-04-20 2022-05-17 科大天工智能装备技术(天津)有限公司 一种垃圾分类方法及系统

Similar Documents

Publication Publication Date Title
CN112016462A (zh) 一种基于深度学习模型的回收瓶分类方法
CN105447473B (zh) 一种基于PCANet-CNN的任意姿态人脸表情识别方法
CN111738251B (zh) 一种融合语言模型的光学字符识别方法、装置和电子设备
Wang et al. Research on image recognition of insulators based on YOLO algorithm
CN105260734A (zh) 一种具有自建模功能的商品油表面激光标码识别方法
CN108986091A (zh) 基于深度哈希网络的铸件缺陷图像检测方法
CN115330734A (zh) 一种基于三维目标检测和点云缺陷补全的自动化机器人补焊系统
CN114677687A (zh) 一种融合ViT与卷积神经网络的毛笔字体类型快速识别方法
Feng et al. Garbage disposal of complex background based on deep learning with limited hardware resources
Sampaio et al. A novel method for object detection using deep learning and CAD models
CN114626461A (zh) 基于领域自适应的跨域目标检测方法
CN106625711A (zh) 一种定位机器人智能互动的方法
CN113012228A (zh) 一种工位定位系统及基于深度学习的工件定位方法
CN117152844A (zh) 基于计算机视觉的高完整性工人施工姿态检测方法及系统
Wang et al. Summary of object detection based on convolutional neural network
CN106682638A (zh) 一种定位机器人智能互动的系统
CN113205163B (zh) 数据标注方法及装置
CN116912872A (zh) 图纸识别方法、装置、设备及可读存储介质
CN113034494A (zh) 一种基于深度学习的橡胶密封圈缺陷检测方法
CN113159278A (zh) 一种分割网络系统
CN114912637A (zh) 人机物知识图谱制造产线运维决策方法及系统、存储介质
CN113011486A (zh) 鸡爪分类及定位模型的构建方法及系统、鸡爪分拣方法
CN113591863A (zh) 一种具有自校正意识的车牌字符识别方法
CN117772648B (zh) 基于具身智能的零件分拣处理方法、装置、设备及介质
Yap et al. Enhancing BISINDO Recognition Accuracy Through Comparative Analysis of Three CNN Architecture Models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination