CN112016462A - 一种基于深度学习模型的回收瓶分类方法 - Google Patents
一种基于深度学习模型的回收瓶分类方法 Download PDFInfo
- Publication number
- CN112016462A CN112016462A CN202010884925.2A CN202010884925A CN112016462A CN 112016462 A CN112016462 A CN 112016462A CN 202010884925 A CN202010884925 A CN 202010884925A CN 112016462 A CN112016462 A CN 112016462A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- learning model
- image data
- data set
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 51
- 238000011084 recovery Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000012360 testing method Methods 0.000 claims abstract description 34
- 238000004064 recycling Methods 0.000 claims abstract description 27
- 238000012795 verification Methods 0.000 claims abstract description 27
- 238000002372 labelling Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 101100446506 Mus musculus Fgf3 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/04—Sorting according to size
- B07C5/12—Sorting according to size characterised by the application to particular articles, not otherwise provided for
- B07C5/122—Sorting according to size characterised by the application to particular articles, not otherwise provided for for bottles, ampoules, jars and other glassware
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
- B07C5/342—Sorting according to other particular properties according to optical properties, e.g. colour
- B07C5/3422—Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习模型的回收瓶分类方法,包括如下步骤:S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集;S02:建立深度学习模型,采用训练图像数据集对所述深度学习模型进行训练;S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型;S04:对预测模型加载在回收装置中,所述预测模型的输出结果控制机械手对回收瓶进行分类。本发明提供的的一种基于深度学习模型的回收瓶分类方法,用以提高回收瓶的识别和回收效率。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于深度学习模型的回收瓶分类方法。
背景技术
随着我国对生态保护和环境卫生的重视程度不断提升,对垃圾的回收利用越来越规范化和产业化,在垃圾回收过程中希望垃圾回收的效率得到提升,因此智能化垃圾处理和回收行业快速发展。利用自动化设备来分担一部分人工分拣垃圾的工作,以此提高回收效率和质量。
其中自动化设备中涉及到深度学习、计算机视觉和图像处理等领域。目前,由于垃圾的数量巨大,而且垃圾回收处理行业的人员较少,大多非青壮年,回收环境较差,人工分拣处理,效率较低,误检率较高。尤其对于垃圾中的回收瓶,其回收价值高,若能实现高效回收,既能节约资源,也能变废为宝,创造新的价值。
若能利用自动化设备分拣,采用深度学习的目标检测算法,在环境稳定的环境下,识别准确且能实时返回检测给分拣自动化设备,则能集中化、高效率的完成垃圾分拣工作,大大减少人的工作量。因此,如何训练出能够准确识别垃圾类别的深度学习模型成为急需解决的问题。
发明内容
针对现有技术的不足,本发明的目的旨在提供一种基于深度学习模型的回收瓶分类方法,用以提高回收瓶的识别和回收效率。
为实现上述目的,本发明采用如下技术方案:一种基于深度学习模型的回收瓶分类方法,包括如下步骤:
S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集;
S02:建立深度学习模型,采用训练图像数据集对所述深度学习模型进行训练;所述深度学习模型包括主分支网络、预测分支和修正分支;
S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型;
S04:对预测模型加载在回收装置中,所述预测模型的输出结果控制机械手对回收瓶进行分类。
进一步的,所述步骤S01具体包括:
S011:利用工业相机拍摄传送带上回收瓶视频;
S012:提取视频中相同帧间隔的图像,获得回收瓶图像;
S013:删除回收瓶图像中不合格图像,对剩余图像进行标注和定义类别;
S014:将标注和定义类别之后的图像分类形成训练图像数据集、验证图像数据集和测试图像数据集。
进一步的,所述步骤S014中训练图像数据集、验证图像数据集和测试图像数据集中图像的个数比例为6:2:2。
进一步的,所述主分支网络包括特征提取部分和定位部分,所述预测分支和修正分支嵌入在特征增强部分和定位部分之间。
进一步的,所述深度学习模型采用RepPointsV2模型。
进一步的,所述主分支网络为anchor-free目标预测模型。
进一步的,所述深度学习模型的损失函数L=LRepPoints+λ1Lcorner+λ2Lforeground,其中,LRepPoints表示主分支网络的损失函数,Lcorner表示修正分支的损失函数,Lforeground表示预测分支的损失函数;λ1和λ2表示设置的损失函数系数。
进一步的,所述步骤S02中,训练图像数据集中的图像输入至深度学习模型中,所述特征提取部分输出特征图;特征图同时进入定位部分、预测分支和修正分支;
所述特征图进入定位部分形成预测框;
所述特征图进入预测分支中的共享卷积层后得到用于预测前景的分热图;
所述特征图进入修正分支中进行角点池化,输出值用于指导预测框的修正。
进一步的,所述回收装置包括相机、传输线、位于传输线末端的机械手以及不同类别回收瓶的回收筐,回收瓶在传输线上传输时,相机实时拍摄图像并将图像传输至预测模型进行识别,所述预测模型输出对应图像的位置以及类别,并将输出结果转换为机械手的控制信号,控制机械手将对应回收瓶放置在对应的回收筐中。
进一步的,所述步骤S04中还包括将预测模型加载在回收装置中并进行现场测试,若预测模型的准确率低于阈值,需要重新进行深度学习模型的训练
本发明的有益效果主要体现在以下三个方面:1、传统回收采用人工分拣处理,效率较低,误检率较高。本发明利用自动化设备分拣,加载可以自动识别类别的预测模型,在回收环境稳定的环境下,识别准确且能实时返回检测结果给分拣自动化设备,整个装置能够集中化、高效率的完成垃圾分拣工作,大大减少人的工作量。
2、本发明中预测模型较于一般的回归预测模型,添加了预测分支和修正分支,使得模型识别更加精准,回归更有效并且适用于连续目标变量。通过多任务学习获得更好的功能,通过包含验证提示来增强功能以及通过两种方法进行联合推理。因此,仔细地组合它们以利用它们的好处通常能达到更好的检测精度。
3、本发明中采用anchor-free目标预测模型作为主分支网络,能够达到比anchor-based的目标检测算法更好的识别精度,并且通常来讲求解回归问题比求解验证问题效率更高。
4、本发明中方法也可以改进FCOS等回归检测器,应用到更多的其他模型上协助推理出更好的模型精度,具有广泛的适用性。
附图说明
附图1为本发明基于深度学习模型的回收瓶分类方法的流程图;
附图2为特征提取部分的网络结构示意图;
附图3为其中一种预测模型对图像的预测效果图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述:
如附图1所示,本发明提供的一种基于深度学习模型的回收瓶分类方法,包括如下步骤:
S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集。本发明中回收瓶可以但不限于为各种类型的可回收塑料瓶。具体可以包括以下步骤:
S011:利用工业相机拍摄传送带上回收瓶视频;
S012:通过opencv(图像处理库)提取视频中相同帧间隔的图像,获得回收瓶图像,此时的图像为原始图像数据,在此基础上可以对原始图像进行翻转,对图像进行上下、左右对称翻转,对图像进行放射变化,形成新的图像,依次增加数据集的多样性,进而增加后续模型训练的精度。
S013:删除回收瓶图像中不合格图像,删除的图像包括没有瓶子、光源效果不一致等有问题的图像;采用labelImg软件对剩余图像进行标注和定义类别,获得标注信息文件xml文件;
S014:将标注和定义类别之后的图像分类形成训练图像数据集、验证图像数据集和测试图像数据集,生成对应数据集中包含图像的文件名文本,分别为train.txt,val.txt,test.txt。训练图像数据集、验证图像数据集和测试图像数据集中图像的个数比例为6:2:2;本步骤中分类采用随机分类方法进行训练图像数据集、验证图像数据集和测试图像数据集分类,每个数据集中图像都包含标注和类别。
S02:建立深度学习模型,采用训练图像数据集对深度学习模型进行训练;深度学习模型包括主分支网络、预测分支和修正分支。其中,主分支网络包括特征提取部分和定位部分,预测分支和修正分支嵌入在特征增强部分和定位部分之间。训练图像数据集中的图像输入至深度学习模型中,特征提取部分输出特征图;特征图同时进入定位部分、预测分支和修正分支;特征图进入定位部分形成预测框;特征图进入预测分支中的共享卷积层后得到用于预测前景的分热图;特征图进入修正分支中进行角点池化,输出值用于指导预测框的修正。本发明中深度学习模型可以采用RepPointsV2模型。主分支网络可以为anchor-free目标预测模型。
采用RepPointsV2模型作为深度学习模型时,其主分支网络是一个纯回归的anchor-free的目标预测模型,分为用FPN(Feature Pyramid Networks,特征金字塔网络)进行多尺度特征提取,然后利用卷积和全连接层进行回归得到目标候选框的左上角点和右下角点的坐标值。为了融合验证方法来增强基于纯回归的模型,添加两个分支,一个分支是利用前景区域的强烈提示来帮助目标候选框的生成,另一个分支是通过conner关角点位置的信息来修正候选框的准确性,前者融合作用在特征层提取后面,后者融合作用在结果层,以此提高模型的精准度。
具体的,模型的处理流程包括:首先将图像数据(转化成224×224大小)输入到网络模型的特征提取部分。利用基于ResNet50残差神经网路的FPN提取多尺度的特征,定位部分结构如图2所示,它目的是为了改进CNN网络的特征提取方式,从而可以使最终输出的特征更好地表示出输入图片各个维度的信息。它的基本过程有三个分别为:自下至上的通路即自下至上的不同维度特征生成,每个阶段利用卷积和池化,特征图尺度减半,获得更深层的语义信息,conv2到conv5的的维度分别是64,128,256,512;自上至下的通路即自上至下的特征补充增强,通过融合深层的语音信息;CNN网络层特征与最终输出的各维度特征之间的关联表达,获得P2,p3,p4,p5四个不同尺度的特征图输出,他们拥有相同的维度,都是256。
在得到特征图后,接下来特征图进入定位部分,定位部分需要完成定位任务和分类任务,定位任务实施过程特征图即经过三个共享3×3卷积,维度256,然后通过一个3×3×256和1×1×18的卷积得到分类任务的可变形卷积的卷积核索引点的偏移量offsets1,对偏移后的每组reppoints1生成预测框,利用SmoothL1Loss计算和真值之间的损失:
以此来优化offsets1的偏移量,然后将三个共享卷积的输出输入到该可变形卷积中,接着利用1×1×8卷积核来得到对应8个分类的特征图,通过阈值的设置和概率计算得到分类,通过FocalLoss计算损失指导训练。
分类任务将三个共享卷积的输出和offsets1输入到预测分支,经过一个3×3×256的可变形卷积,然后经过1×1×18的卷积降为成18个维度,分别代表每个卷积核对应点的x和y轴的索引点偏移量,输出得到offsets2,然后加上offsets1的偏移量,得到最后的reppoints2,以9个点为一组候选框预测点的特征点,然后通过前两个点设置为左上和右下两个极值点,进而可以转化成预测候选框,转换函数为:
同样利用SmoothL1Loss来计算预测框和真值之间的损失值,用于反向传播。至此,是主分支网络的训练结构步骤。
本发明中预测分支利用前景区域的强烈提示来帮助目标候选框的生成。通过将FPN特征提取后的多尺度特征图结果,经过一个共享3×3的支路共享卷积操作,然后再经过一个1×1的卷积操作得到用于预测前景得分热图,嵌入到主分支过程的FPN特征提取之后,用于加强前景的预测。
本发明中修正分支利用角点验证的操作将一个分数与特征图中的每个点关联起来,表明它是一个角点的概率。做法是同样和分支一一样的输入,通过将FPN特征提取后的多尺度特征图结果作为输入,经过一个角点池化,然后经过一个1×1的卷积,最后将输出和主分支网络的offset1进行concat指导预测框的进一步修正,用于预测热图得分和亚像素偏移量,以修正预测框的准确性。
鉴于本发明中深度学习模型包含主分支网络、预测分支和修正分支,所以在训练中,我们设置深度学习模型的损失函数L=LRepPoints+λ1Lcorner+λ2Lforeground,其中,LRepPoints表示主分支网络的损失函数,Lcorner表示修正分支的损失函数,Lforeground表示预测分支的损失函数;λ1和λ2表示设置的损失函数系数。
S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型。
在训练过程中,网络的训练参数如下:Batch size=32,num_classes=9,Learning rate=lr=0.0025,total_epochs=20,Iteration=5000,score_thr=0.05。
通过指令python tools/train.py${CONFIG_FILE}[optional arguments]可以开始训练。
训练完成之后得到学习到数据的pth权重文件,可以通过指令python tools/test.py${CONFIG_FILE}${CHECKPOINT_FILE}[--out${RESULT_FILE}][--eval${EVAL_METRICS}][--show]可以测试模型的训练实际效果,观察输出的预测图像可以检查出训练时,有待优化地方。
根据模型测试图像输出结果,如图3所示的预测图像,出现了许多重读预测框的情况,可能由于阈值设置的较小,或者是图像标注上的出错,通过检查修正等网络参数和数据集的错误之后,然后将修改后的数据集输入到参数调整后的模型中去,重新训练,一直到训练的模型对目标塑料瓶有比较高的精度的预测效果为止,即可以得到稳定的预测模型。
预测模型在正式应用之前需要进行测试,将之前准备的测试图像数据集中图像输入到训练完成之后的模型中进行预测,然后查看所有的预测效果,检查是否有出现没有预测到的目标,或者是预测框出现重叠,又或者是预测框的精度不高等问题,可以对应的增加数据集样本数据量,或者检查数据标注文件的信息是否出现错误,或者数据增强影响了模型的学习。
S04:对预测模型加载在回收装置中,预测模型的输出结果控制机械手对回收瓶进行分类。
将预测模型加载在回收装置中并进行现场测试,如果现场测试的预测效果比较差就需要重新检查现场环境是否发生变化而导致数据的环境和训练的数据集有差异需要重复,或者预测的阈值需要调整等问题,直到现场预测稳定。稳定之后的预测模型才能用以回收瓶识别。
回收装置包括相机、传输线、位于传输线末端的机械手以及不同类别回收瓶的回收筐,回收瓶在传输线上传输时,相机实时拍摄图像并将图像传输至预测模型进行识别,预测模型输出对应图像的位置以及类别,并将输出结果转换为机械手的控制信号,控制机械手将对应回收瓶放置在对应的回收筐中。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。
Claims (10)
1.一种基于深度学习模型的回收瓶分类方法,其特征在于,包括如下步骤:
S01:获取回收瓶图像,对各个回收瓶图像进行标注和定义类别,形成训练图像数据集、验证图像数据集和测试图像数据集;
S02:建立深度学习模型,采用训练图像数据集对所述深度学习模型进行训练;所述深度学习模型包括主分支网络、预测分支和修正分支;
S03:采用验证图像数据集和测试图像数据集对训练之后的深度学习模型进行验证和测试,若验证或测试结果达不到设定值,则返回步骤S02继续进行深度学习模型训练;若验证或测试结果达到设定值,则得到预测模型;
S04:对预测模型加载在回收装置中,所述预测模型的输出结果控制机械手对回收瓶进行分类。
2.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S01具体包括:
S011:利用工业相机拍摄传送带上回收瓶视频;
S012:提取视频中相同帧间隔的图像,获得回收瓶图像;
S013:删除回收瓶图像中不合格图像,对剩余图像进行标注和定义类别;
S014:将标注和定义类别之后的图像分类形成训练图像数据集、验证图像数据集和测试图像数据集。
3.根据权利要求2所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S014中训练图像数据集、验证图像数据集和测试图像数据集中图像的个数比例为6:2:2。
4.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述主分支网络包括特征提取部分和定位部分,所述预测分支和修正分支嵌入在特征增强部分和定位部分之间。
5.根据权利要求4所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述深度学习模型采用RepPointsV2模型。
6.根据权利要求5所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述主分支网络为anchor-free目标预测模型。
7.根据权利要求4所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述深度学习模型的损失函数L=LRepPoints+λ1Lcorner+λ2Lforeground,其中,LRepPoints表示主分支网络的损失函数,Lcorner表示修正分支的损失函数,Lforeground表示预测分支的损失函数;λ1和λ2表示设置的损失函数系数。
8.根据权利要求4所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S02中,训练图像数据集中的图像输入至深度学习模型中,所述特征提取部分输出特征图;特征图同时进入定位部分、预测分支和修正分支;
所述特征图进入定位部分形成预测框;
所述特征图进入预测分支中的共享卷积层后得到用于预测前景的分热图;
所述特征图进入修正分支中进行角点池化,输出值用于指导预测框的修正。
9.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述回收装置包括相机、传输线、位于传输线末端的机械手以及不同类别回收瓶的回收筐,回收瓶在传输线上传输时,相机实时拍摄图像并将图像传输至预测模型进行识别,所述预测模型输出对应图像的位置以及类别,并将输出结果转换为机械手的控制信号,控制机械手将对应回收瓶放置在对应的回收筐中。
10.根据权利要求1所述的一种基于深度学习模型的回收瓶分类方法,其特征在于,所述步骤S04中还包括将预测模型加载在回收装置中并进行现场测试,若预测模型的准确率低于阈值,需要重新进行深度学习模型的训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010884925.2A CN112016462A (zh) | 2020-08-28 | 2020-08-28 | 一种基于深度学习模型的回收瓶分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010884925.2A CN112016462A (zh) | 2020-08-28 | 2020-08-28 | 一种基于深度学习模型的回收瓶分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112016462A true CN112016462A (zh) | 2020-12-01 |
Family
ID=73502798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010884925.2A Pending CN112016462A (zh) | 2020-08-28 | 2020-08-28 | 一种基于深度学习模型的回收瓶分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112016462A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034494A (zh) * | 2021-04-20 | 2021-06-25 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的橡胶密封圈缺陷检测方法 |
CN113111792A (zh) * | 2021-04-16 | 2021-07-13 | 东莞市均谊视觉科技有限公司 | 一种基于迁移学习的饮料瓶回收视觉检测方法 |
CN113743470A (zh) * | 2021-08-04 | 2021-12-03 | 浙江联运环境工程股份有限公司 | 自动破袋分类箱基于ai算法垃圾识别精度提升方法 |
CN114511750A (zh) * | 2022-04-20 | 2022-05-17 | 科大天工智能装备技术(天津)有限公司 | 一种垃圾分类方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934255A (zh) * | 2019-01-22 | 2019-06-25 | 小黄狗环保科技有限公司 | 一种适用于饮料瓶回收机投递物分类识别的模型融合方法 |
CN110116415A (zh) * | 2019-06-12 | 2019-08-13 | 中北大学 | 一种基于深度学习的瓶罐类垃圾识别分类机器人 |
CN110866561A (zh) * | 2019-11-18 | 2020-03-06 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于图像识别的塑料瓶颜色分选方法 |
CN110909660A (zh) * | 2019-11-19 | 2020-03-24 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于目标检测的塑料瓶检测与定位方法 |
CN111445368A (zh) * | 2020-03-16 | 2020-07-24 | 五邑大学 | 基于机器视觉与深度学习的垃圾分类方法、装置及设备 |
-
2020
- 2020-08-28 CN CN202010884925.2A patent/CN112016462A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934255A (zh) * | 2019-01-22 | 2019-06-25 | 小黄狗环保科技有限公司 | 一种适用于饮料瓶回收机投递物分类识别的模型融合方法 |
CN110116415A (zh) * | 2019-06-12 | 2019-08-13 | 中北大学 | 一种基于深度学习的瓶罐类垃圾识别分类机器人 |
CN110866561A (zh) * | 2019-11-18 | 2020-03-06 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于图像识别的塑料瓶颜色分选方法 |
CN110909660A (zh) * | 2019-11-19 | 2020-03-24 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于目标检测的塑料瓶检测与定位方法 |
CN111445368A (zh) * | 2020-03-16 | 2020-07-24 | 五邑大学 | 基于机器视觉与深度学习的垃圾分类方法、装置及设备 |
Non-Patent Citations (3)
Title |
---|
YIHONG CHEN 等: "RepPoints v2: Verification Meets Regression for Object Detection", 《ARXIV:2007.08508V1》, pages 1 - 14 * |
ZE YANG 等: "RepPoints: Point Set Representation for Object Detection", 《ARXIV:1904.11490V2》, pages 99 - 101 * |
王浩: "基于深度残差网络ResNet的废料瓶分类系统", 《科技与创新》, no. 14, pages 71 - 72 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111792A (zh) * | 2021-04-16 | 2021-07-13 | 东莞市均谊视觉科技有限公司 | 一种基于迁移学习的饮料瓶回收视觉检测方法 |
CN113034494A (zh) * | 2021-04-20 | 2021-06-25 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的橡胶密封圈缺陷检测方法 |
CN113743470A (zh) * | 2021-08-04 | 2021-12-03 | 浙江联运环境工程股份有限公司 | 自动破袋分类箱基于ai算法垃圾识别精度提升方法 |
CN114511750A (zh) * | 2022-04-20 | 2022-05-17 | 科大天工智能装备技术(天津)有限公司 | 一种垃圾分类方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112016462A (zh) | 一种基于深度学习模型的回收瓶分类方法 | |
CN105447473B (zh) | 一种基于PCANet-CNN的任意姿态人脸表情识别方法 | |
CN111738251B (zh) | 一种融合语言模型的光学字符识别方法、装置和电子设备 | |
Wang et al. | Research on image recognition of insulators based on YOLO algorithm | |
CN105260734A (zh) | 一种具有自建模功能的商品油表面激光标码识别方法 | |
CN108986091A (zh) | 基于深度哈希网络的铸件缺陷图像检测方法 | |
CN115330734A (zh) | 一种基于三维目标检测和点云缺陷补全的自动化机器人补焊系统 | |
CN114677687A (zh) | 一种融合ViT与卷积神经网络的毛笔字体类型快速识别方法 | |
Feng et al. | Garbage disposal of complex background based on deep learning with limited hardware resources | |
Sampaio et al. | A novel method for object detection using deep learning and CAD models | |
CN114626461A (zh) | 基于领域自适应的跨域目标检测方法 | |
CN106625711A (zh) | 一种定位机器人智能互动的方法 | |
CN113012228A (zh) | 一种工位定位系统及基于深度学习的工件定位方法 | |
CN117152844A (zh) | 基于计算机视觉的高完整性工人施工姿态检测方法及系统 | |
Wang et al. | Summary of object detection based on convolutional neural network | |
CN106682638A (zh) | 一种定位机器人智能互动的系统 | |
CN113205163B (zh) | 数据标注方法及装置 | |
CN116912872A (zh) | 图纸识别方法、装置、设备及可读存储介质 | |
CN113034494A (zh) | 一种基于深度学习的橡胶密封圈缺陷检测方法 | |
CN113159278A (zh) | 一种分割网络系统 | |
CN114912637A (zh) | 人机物知识图谱制造产线运维决策方法及系统、存储介质 | |
CN113011486A (zh) | 鸡爪分类及定位模型的构建方法及系统、鸡爪分拣方法 | |
CN113591863A (zh) | 一种具有自校正意识的车牌字符识别方法 | |
CN117772648B (zh) | 基于具身智能的零件分拣处理方法、装置、设备及介质 | |
Yap et al. | Enhancing BISINDO Recognition Accuracy Through Comparative Analysis of Three CNN Architecture Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |