CN113743404A - 一种智能垃圾收运车垃圾图像分类方法 - Google Patents

一种智能垃圾收运车垃圾图像分类方法 Download PDF

Info

Publication number
CN113743404A
CN113743404A CN202111038096.7A CN202111038096A CN113743404A CN 113743404 A CN113743404 A CN 113743404A CN 202111038096 A CN202111038096 A CN 202111038096A CN 113743404 A CN113743404 A CN 113743404A
Authority
CN
China
Prior art keywords
garbage
classification
network
image
transportation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111038096.7A
Other languages
English (en)
Other versions
CN113743404B (zh
Inventor
章东平
张文治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202111038096.7A priority Critical patent/CN113743404B/zh
Publication of CN113743404A publication Critical patent/CN113743404A/zh
Application granted granted Critical
Publication of CN113743404B publication Critical patent/CN113743404B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W30/00Technologies for solid waste management
    • Y02W30/10Waste collection, transportation, transfer or storage, e.g. segregated refuse collecting, electric or hybrid propulsion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于深度卷积神经网络分类及目标检测领域,公开了一种智能垃圾收运车垃圾图像分类方法。首先,由清运员在收运车上对垃圾桶进行操作,并上传至后端算法系统。然后,将图像输入到清晰模糊图像二分类网络,垃圾桶重量输入后端重量分析器。当重量达标并且图像清晰的情况下,再将垃圾图片输入垃圾分类网络进行垃圾分类。并且针对出现异常的分类情况、重量不达标和图像模糊的情况,前端语音系统会对清运员进行反馈。本发明通过调整骨干网络深度宽度和输入图像分辨率,使网络的性能达到最优性能。此外同时进行目标分类和目标检测任务,若出现分类任务输出结果置信度较低的情况时,通过目标检测中的检测结果联合分析垃圾桶的分类情况。

Description

一种智能垃圾收运车垃圾图像分类方法
技术领域
本发明属于深度卷积神经网络分类及目标检测领域,尤其涉及一种智能垃圾收运车垃圾图像分类方法。
背景技术
目前我国对于城市的环保建设发展尤为重视,垃圾分类问题是城市环保建设的一个重点,垃圾收运车在环保建设中起到了中流砥柱的作用。在垃圾收运车上完成垃圾分类的检测,是在环保领域上的一种极大的进步。
随着硬件设备的不断更新,目前深度学习方法在大多数领域都有了迅速的发展,类似人脸识别、车牌识别、行人属性识别等等。但在垃圾分类方面,并未有深入的应用。而垃圾因为其种类繁多各个类别之间差异不明显,导致误报率很高。
发明内容
本发明目的在于提供一种智能垃圾收运车垃圾图像分类方法,以解决现有技术垃圾分类误报率高的技术问题。
为解决上述技术问题,本发明的一种智能垃圾收运车垃圾图像分类方法的具体技术方案如下:
一种智能垃圾收运车垃圾图像分类方法,包括如下步骤:
步骤1:清运员把易腐垃圾桶和其他垃圾桶放到垃圾收运车上,打开垃圾桶的盖子,清运员在车载智能电子秤的触摸屏上进行人工操作,电子秤将重量直接在操作界面上显示,清运员选择垃圾的类别后,点击合格、不合格或者空桶的按键并点击确认键;
步骤2:当清运员点击确认键后,放置在垃圾桶正上方的高清摄像头拍摄照片并传输到前端车载系统和后端的平台,后端平台将照片图像输入到垃圾图像分类算法进行分类,如果清运员两次分类结果都与垃圾分类算法不同,此图像被分为困难样本图像,并由后端的工作人员人工审核;如果出现是算法误报,则进行人工标注,将标注好的数据放入算法迭代更新数据集,当数据集中的新标记数据积累到一定数量后,用之对分类算法进行迭代更新;
步骤3:在清运车上装有前端语音反馈系统,前端语音反馈系统连接后端平台,基于清运员上传的不同信息做出相应的语音提示,若出现与垃圾工作人员的判定结果不一致的分类,后端平台把此信息反馈给前端车载系统,前端车载系统会以语音播报的形式提醒清运员,让清运员再确认一次垃圾分类是否正确。
进一步地,步骤2的具体实现包括如下步骤:
步骤2.1:数据准备;
步骤2.2:构建垃圾分类模型网络结构;
步骤2.3:复合模型扩张;
步骤2.4:垃圾分类模型训练;
步骤2.5:构建特殊垃圾目标检测网络结构;
步骤2.6:垃圾分类模型使用。
进一步地,步骤2.1具体为:
最初数据的构成是垃圾收运车所拍摄到的照片传送到后端数据库中,将这些拍摄到的图片通过人工分类成十二个类别:空称、其他垃圾不合格、其他垃圾合格、其他垃圾空桶、其他垃圾桶未打开、易腐垃圾不合格、易腐垃圾合格、易腐垃圾空桶、易腐垃圾桶未打开、手、黑屏(花屏)、其他;按照8:1:1划分为训练集、验证集、测试集,用于分类网络的训练;将拍摄到的图片进行人工标注目标框,标注的目标框类别分别是:西瓜皮、塑料瓶、易拉罐、衣服、玻璃瓶、蛋壳、纸巾、陶瓷、眼镜;按照8∶1∶1划分为训练集、验证集、测试集,用于垃圾目标检测网络训练。
进一步地,步骤2.2具体为:
垃圾分类模型采用一种基于复合模型扩张结合神经结构搜索技术的卷积神经网络作为骨干网络,输入网络的图像数据经过移动翻转瓶颈卷积模块与注意力机制模块提取特征,卷积层的输出部分采用Swish激活函数:
Figure BDA0003248029710000031
通道注意力模块最后一层全连接层采用Sigmoid激活函数;网络的深度、宽度与输入图像的分辨率大小通过复合模型扩张方法搭配神经构架搜索技术决定。
进一步地,步骤2.3具体为:
将网络深度设置为
Figure BDA0003248029710000032
网络宽度设置为:
Figure BDA0003248029710000033
输入图像分辨率为
Figure BDA0003248029710000034
并通过α·β2·γ2≈2且α≥1,β≥1,γ≥1两个条件来限制三个参数,α,β,γ分别衡量着网络深度,宽度和输入图像分辨率的比重,使用复合系数
Figure BDA0003248029710000035
来统一的修正α,β,γ;固定
Figure BDA0003248029710000036
通过网格搜索得出最优的α,β,γ,得到最基本的网络模型;
固定α,β,γ的值,
Figure BDA0003248029710000037
的大小对应着消耗资源的大小,因为计算资源的不同,使用不同的
Figure BDA0003248029710000038
得到适配其计算资源的网络模型;
当计算资源变大,使用
Figure BDA0003248029710000039
作为复合参数,通过α·β2·γ2≈2且α≥1,β≥1,γ≥1两个条件,当
Figure BDA00032480297100000310
时通过网络搜索的方式得出其最优的α,β,γ,此时的网络模型的网络深度为
Figure BDA00032480297100000311
网络宽度设置为:
Figure BDA00032480297100000312
输入图像分辨率为
Figure BDA00032480297100000313
此网络模型为复合系数为
Figure BDA00032480297100000314
时的最优网络。进一步地,步骤2.4具体为:
提取出来的特征会进入池化层、全连接层和Sofamax分类层(步骤2.1中的十二个类别),输出垃圾类别的最大概率作为此垃圾分类的类别,此分类模型的损失函数为:
Figure BDA0003248029710000041
N表示类别数量,y(i)表示指示变量(0或1),如果样本i的预测类别和真实类别相同就是1,否则是0;
Figure BDA0003248029710000042
指的是对于观测样本i是正确的预测概率;
在训练的过程中,对网络参数赋初始化数值,设置网络的最大迭代次数m;将准备好的数据集输入网络,进行训练;如果loss值一直下降,则继续训练,直到迭代m次后,得到最终的模型;如果loss值在中途趋于稳定,则停止迭代,得到最终的模型。
进一步地,步骤2.5具体为:
检测网络与分类网络使用同一个骨干网络,图像数据输入卷积层提取特征时,将卷积层最后五层得到不同尺度的特征放入双向加权特征金字塔网络,双向特征金字塔网络的结构:
P3 out=Conv(P3 in+P4 td)
P4 td=Conv(P4 in+Resize(P5 td))
P4 out=Conv(P4 in+P4 td+Resize(P3 out))
P6 td=Conv(P6 in+Resize(P7 in))
P6 out=Conv(P6 in+P6 td+Resize(P5 out))
P7 out=Conv(P7 in+Resize(P6 out))
其中Px out表示第X层卷积层所提取的特征通过双向加权特征金字塔网络输出的结果;Px in表示第Y层卷积层所提取的特征输入到金字塔网络中;Resize表示的是通过几何变换的操作把图片的大小到相同尺寸;PY td表示第Y层卷积层所提取的特征,在输出结果之前先进行一次特征融合的结果;将经过双向加权特征金字塔网络所得到的特征输入到分类预测网络和边框预测网络中,最终输出结果特殊垃圾目标的分类和位置信息;
CL是目标检测分支的分类损失函数:
Figure BDA0003248029710000051
LocL是目标检测分支的定位损失函数:
Figure BDA0003248029710000052
y表示人工标注图像的类别;p(Ω)为预测为类别y的概率;α和
Figure BDA0003248029710000053
为平衡参数,用来平衡正负样本的权重,能够降低易分样本损失贡献;
Figure BDA0003248029710000054
代表预测的检测框参数,
Figure BDA0003248029710000055
代表检测框标注参数;
进一步地,步骤2.6具体为:
输入某一次扔的垃圾的图像,先将主干网络提取的特征输入分类分支,输出图像的分类结果和置信度,当分类置信度大于阈值l2(l2>0.5)时,直接将网络分类分支的输出作为最终预测结果;当分类置信度大于0.5但小于阈值l2时,将主干网络提取的特征图输入目标检测分支,输出检测框信息(c,x,y,w,h),其中c为垃圾的类别,将检测分支输出类别的具体垃圾种类与其他或易腐垃圾桶进行智能分析并确定此次垃圾分类最终输出的类别是其他垃圾合格、其他垃圾不合格、易腐垃圾合格、易腐垃圾不合格其中之一。
进一步地,步骤3的具体步骤为:
步骤3.1:电子秤重量反馈系统与后端模糊图像识别反馈系统:收运员完成分类后,前端车载系统同时向后端发送电子秤重量数据与图片数据;当后端得到的重量数据小于阈值M(桶重)+Δa(参数),前端语音系统会做出语音提示:“请正确放置后再进行下一步操作”,此时收运员需要将垃圾桶摆放正确使得电子称重量达到阈值M(桶重)+Δa(参数),才能进行下一步操作;
后端接受到前端的图像数据后,将其放入由efficienctNet为网络模型模糊图像和清晰图像的二分类神经网络,输出的图像为模糊图像,前端语音系统会做出语音提示:“图像模糊,请再进行一次正确操作流程的步骤”;满足电子秤重量数据合理和传输图像是清晰图像两个条件则将清晰图像传入步骤3.2的图像识别系统;
步骤3.2:后端图像识别反馈系统:后端系统中进行十二个分类任务时对于不同类别的出现,车载反馈系统反馈不同的指令;
步骤3.3:重复操作处理方法:当进行电子秤重量反馈系统与后端模糊图像识别反馈系统时,第一次操作后前端语音系统播报内容为:“请正确放置后再进行下一步操作”或“图像模糊,请再进行一次正确操作流程的步骤”,第二次操作后前端语音系统仍然播报相同的内容,则出现新的语音提示:“出现故障请拨打工作人员电话”,此时需要工作人员进行协助处理;
当进行后端图像识别反馈系统时,第一次图片识别为“手”、“黑屏(花屏)类别”、“空称”和其他、易腐垃圾桶未打开”类别后,重复操作后得到的仍是上述类别时,第三次输入后端系统后,前端语音提示:“分类已完成”,此类图片需要通过人工进行甄别与分类。
进一步地,步骤3.2中后端系统中进行十二个分类任务时对于不同类别的出现,车载反馈系统反馈不同的指令为:
1)当图片传输到后端算法并分为“其他、易腐垃圾桶未打开”时,此时后端系统会反馈到前端语音系统中并提醒:“请打开盖子后重新操作”;
2)当图片传输到后端算法并分为“空称”时,此时后端系统会反馈到前端语音系统中并提醒:“请清运员放入指定垃圾桶后进行重新操作”;
3)当图片传输到后端算法并分为“黑屏(花屏)类别”时,后端系统会反馈到前端语音系统中并语音提示清运员:“请重新进行一次操作”;
4)当图片传输到后端算法并分为“手”类别时,后端系统会反馈到前端语音系统中并语音提示清运员:“请清运员将手臂移出摄像机范围并重新操作”。
本发明的一种智能垃圾收运车垃圾图像分类方法具有以下优点:当垃圾重量达标并且图像清晰的情况下,再将垃圾图片输入垃圾分类网络进行垃圾分类。并且针对出现异常的分类情况、重量不达标和图像模糊的情况,前端语音系统会对清运员进行反馈。垃圾分类网络使用了新型复合模型缩放方法,使在计算资源一定的条件下,通过调整骨干网络深度宽度和输入图像分辨率,使网络的性能达到最优性能。此外同时进行目标分类和目标检测任务,若出现分类任务输出结果置信度较低的情况时,通过目标检测中的检测结果联合分析此垃圾桶的分类情况。本发明采用分类和检测并用的思路,使垃圾分类的准确率大大提高。
附图说明
图1为本发明的智能垃圾收运车垃圾图像分类方法流程图;
图2为本发明的垃圾图像分类算法流程图;
图3为本发明的缩放原理图;
图4为本发明的后端模糊图像识别流程图。
具体实施方式
为了更好地了解本发明的目的、结构及功能,下面结合附图,对本发明一种智能垃圾收运车垃圾图像分类方法做进一步详细的描述。
本实施例中,如图1所示,一种智能垃圾收运车垃圾图像分类方法,包括如下步骤:
步骤1:清运员把易腐垃圾桶和其他垃圾桶放到垃圾收运车上,打开垃圾桶的盖子,清运员在车载智能电子秤的触摸屏上进行人工操作,其中电子秤会将重量直接在操作界面上显示,清运员选择垃圾的类别后,点击合格、不合格或者空桶的按键并点击确认键;
步骤2:当清运员点击确认键后,放置在垃圾桶正上方的高清摄像头会拍摄照片并传输到前端车载系统和后端的平台,后端平台将照片图像输入到垃圾图像分类算法进行分类。如果清运员二次分类结果依然与垃圾分类算法不同,此图像被分为困难样本图像,并由后端的工作人员人工审核。如果出现是算法误报,则进行人工标注,将标注好的数据放入算法迭代更新数据集,当数据集中的新标记数据积累到一定数量后,用之对分类算法进行迭代更新。
步骤3:在清运车上装有前端语音反馈系统,此系统连接后端平台,基于清运员上传的不同信息做出相应的语音提示。若出现与垃圾工作人员的判定结果不一致的分类,后端平台把此信息反馈前端车载系统,前端车载系统会以语音播报的形式提醒清运员,让其再确认一次垃圾分类是否正确。
进一步的步骤2中,一种智能垃圾收运车垃圾图像分类算法流程图,如图2所示,具体实现主要包括如下步骤:
步骤2.1:数据准备:最初数据的构成是垃圾收运车所拍摄到的照片传送到后端数据库中,将这些拍摄到的图片通过人工分类成以下十二个类别:空称、其他垃圾不合格、其他垃圾合格、其他垃圾空桶、其他垃圾桶未打开、易腐垃圾不合格、易腐垃圾合格、易腐垃圾空桶、易腐垃圾桶未打开、手、黑屏(花屏)、其他。按照8∶1∶1划分为训练集、验证集、测试集,用于分类网络的训练。将拍摄到的图片进行人工标注目标框,标注的目标框类别分别是:西瓜皮、塑料瓶、易拉罐、衣服、玻璃瓶、蛋壳、纸巾、陶瓷、眼镜。按照8∶1∶1划分为训练集、验证集、测试集,用于垃圾目标检测网络训练。
步骤2.2:垃圾分类模型网络结构:垃圾分类模型主要采用了一种基于复合模型扩张结合神经结构搜索技术的卷积神经网络作为骨干网络,输入网络的图像数据经过移动翻转瓶颈卷积模块与注意力机制模块提取特征,卷积层的输出部分采用Swish激活函数:
Figure BDA0003248029710000091
通道注意力模块最后一层全连接层采用Sigmoid激活函数。网络的深度、宽度与输入图像的分辨率大小通过复合模型扩张方法搭配神经构架搜索技术决定。
步骤2.3:如图3所示,复合模型扩张技术:对于一个网络模型来说,提升网络深度、网络宽度、输入图像分辨率均能提高模型精度,但随着网络不断深度加深、网络宽度不断拓宽、图像分辨率不断增大,网络的精度回报会削弱,并且会导致计算资源的不断提升。针对上述问题,将网络深度设置为
Figure BDA0003248029710000092
网络宽度设置为:
Figure BDA0003248029710000093
输入图像分辨率为
Figure BDA0003248029710000094
并通过α·β2·γ2≈2且α≥1,β≥1,γ≥1两个条件来限制三个参数,α,β,γ分别衡量着网络深度,宽度和输入图像分辨率的比重,使用复合系数
Figure BDA0003248029710000095
来统一的修正α,β,γ。其中β,γ在约束上会有平方,是因为如果增加宽度或分辨率两倍,其计算量是增加四倍,但是增加深度两倍,其计算量只会增加两倍。
固定
Figure BDA0003248029710000096
通过网格搜索得出最优的α,β,γ,得到最基本的网络模型。
固定α、β、γ的值,φ的大小对应着消耗资源的大小,因为计算资源的不同,使用不同的φ,得到适配其计算资源的网络模型。
使用不同的φ时,得到了对应的网络模型,此时的α,β,γ并不是当前网络模型的最优解。当计算资源变大,使用
Figure BDA0003248029710000097
作为复合参数,通过α·β2·γ2≈2且α≥1,β≥1,γ≥1两个条件,当
Figure BDA0003248029710000101
时通过网络搜索的方式得出其最优的α,β,γ,此时的网络模型的网络深度为
Figure BDA0003248029710000102
网络宽度设置为:
Figure BDA0003248029710000103
输入图像分辨率为
Figure BDA0003248029710000104
此网络模型为复合系数为
Figure BDA0003248029710000105
时的最优网络。
步骤2.4:垃圾分类模型训练:提取出来的特征会进入池化层、全连接层和Sofamax分类层(步骤2.1中的十二个类别),输出垃圾类别的最大概率作为此垃圾分类的类别。此分类模型的损失函数为:
Figure BDA0003248029710000106
N表示类别数量,y(i)表示指示变量(0或1),如果样本i的预测类别和真实类别相同就是1,否则是0。
Figure BDA0003248029710000107
指的是对于观测样本i是正确的预测概率。
在训练的过程中,对网络参数赋初始化数值,设置网络的最大迭代次数m;将准备好的数据集输入网络,进行训练。如果loss值一直下降,则继续训练,直到迭代m次后,得到最终的模型;如果loss值在中途趋于稳定,则停止迭代,得到最终的模型;
步骤2.5:特殊垃圾目标检测网络结构:此检测网络与分类网络使用同一个骨干网络,图像数据输入卷积层提取特征时,将卷积层最后五层得到不同尺度的特征放入双向加权特征金字塔网络。双向特征金字塔网络的结构:
P3 out=Conv(P3 in+P4 td)
P4 td=Conv(P4 in+Resize(P5 td))
P4 out=Conv(P4 in+P4 td+Resize(P3 out))
P6 td=Conv(P6 in+Resize(P7 in))
P6 out=Conv(P6 in+P6 td+Resize(P5 out))
P7 out=Conv(P7 in+Resize(P6 out))
其中Px out表示第X层卷积层所提取的特征通过双向加权特征金字塔网络输出的结果;Px in表示第X层卷积层所提取的特征输入到金字塔网络中;Resize表示的是通过几何变换的操作把图片的大小到相同尺寸,便于统一处理;PY td表示第Y层卷积层所提取的特征,在输出结果之前先进行一次特征融合的结果。
将经过双向加权特征金字塔网络所得到的特征输入到分类预测网络和边框预测网络中,最终输出结果特殊垃圾目标的分类和位置信息。特殊垃圾分为以下几类:西瓜皮、塑料瓶、易拉罐、衣服、玻璃瓶、蛋壳、纸巾、陶瓷、眼镜。其中西瓜皮和蛋壳对应易腐垃圾;塑料瓶、易拉罐、衣服、陶瓷、玻璃瓶和眼镜对应可回收垃圾;纸巾对应其他垃圾。
CL是目标检测分支的分类损失函数
Figure BDA0003248029710000111
LocL是目标检测分支的定位损失函数
Figure BDA0003248029710000112
y表示人工标注图像的类别;p(n)为预测为类别y的概率;α和
Figure BDA0003248029710000113
为平衡参数,用来平衡正负样本的权重,能够降低易分样本损失贡献;
Figure BDA0003248029710000114
代表预测的检测框参数,
Figure BDA0003248029710000115
代表检测框标注参数。
双向加权特征金字塔网络对比FPN金字塔网:1)删除那些只有一条输入边的节点,原因是这如果一个节点只有一条输入边而没有特征融合,那么它对以融合不同特征为目标的特征网络的贡献就会更小;2)增加跳跃连接,原因是将上下层特征融合之后再与自身层的特征融合,这样最终融合更多特征;3)将这一个网络重复多次,以实现更高级别的特征融合。
步骤2.6:垃圾分类模型使用:输入某一次扔的垃圾的图像,先将主干网络提取的特征输入分类分支,输出图像的分类结果和置信度,当分类置信度大于阈值l2(l2>0.5)时,直接将网络分类分支的输出作为最终预测结果;当分类置信度大于0.5但小于阈值l2时,将主干网络提取的特征图输入目标检测分支,输出检测框信息(c,x,y,w,h),其中c为垃圾的类别,此时需要将检测分支输出类别的具体垃圾种类与其他或易腐垃圾桶进行智能分析并确定此次垃圾分类最终输出的类别是其他垃圾合格、其他垃圾不合格、易腐垃圾合格、易腐垃圾不合格其中之一。
进一步的步骤3中一种智能垃圾收运车车载反馈操作方法:
步骤3.1:电子秤重量反馈系统与后端模糊图像识别反馈系统:收运员完成分类后,前端车载系统同时向后端发送电子秤重量数据与图片数据。
当后端得到的重量数据小于阈值M(桶重)+Δa(参数),前端语音系统会做出语音提示:“请正确放置后再进行下一步操作。”此时收运员需要将垃圾桶摆放正确使得电子称重量达到阈值M(桶重)+Δa(参数),才能进行下一步操作。
后端接受到前端的图像数据后,将其放入由efficienctNet为网络模型模糊图像和清晰图像的二分类神经网络。输出的图像为模糊图像,前端语音系统会做出语音提示:“图像模糊,请再进行一次正确操作流程的步骤。”
满足电子秤重量数据合理和传输图像是清晰图像两个条件则将清晰图像传入步骤3.2图像识别系统。
步骤3.2:如图4所示,后端图像识别反馈系统:后端系统中进行12类分类任务时对于不同类别的出现,车载反馈系统会反馈不同的指令。
1)当图片传输到后端算法并分为“其他、易腐垃圾桶未打开”时,此时后端系统会反馈到前端语音系统中并提醒:“请打开盖子后重新操作。”
2)当图片传输到后端算法并分为“空称”时,此时后端系统会反馈到前端语音系统中并提醒:“请清运员放入指定垃圾桶后进行重新操作。”
3)当图片传输到后端算法并分为“黑屏(花屏)类别”时,后端系统会反馈到前端语音系统中并语音提示清运员:“请重新进行一次操作。”
4)当图片传输到后端算法并分为“手”类别时,后端系统会反馈到前端语音系统中并语音提示清运员:“请清运员将手臂移出摄像机范围并重新操作。”
步骤3.3:重复操作处理方法:当进行电子秤重量反馈系统与后端模糊图像识别反馈系统时,第一次操作后前端语音系统播报内容为:“请正确放置后再进行下一步操作”或“图像模糊,请再进行一次正确操作流程的步骤”,第二次操作后前端语音系统仍然播报相同的内容,则出现新的语音提示:“出现故障请拨打工作人员电话”,此时需要工作人员进行协助处理。
当进行后端图像识别反馈系统时,第一次图片识别为“手”、“黑屏(花屏)类别”、“空称”和其他、易腐垃圾桶未打开”类别后,重复操作后得到的仍是上述类别时,第三次输入后端系统后,前端语音提示:“分类已完成”。此类图片需要通过人工进行甄别与分类。
可以理解,本发明是通过一些实施例进行描述的,本领域技术人员知悉的,在不脱离本发明的精神和范围的情况下,可以对这些特征和实施例进行各种改变或等效替换。另外,在本发明的教导下,可以对这些特征和实施例进行修改以适应具体的情况及材料而不会脱离本发明的精神和范围。因此,本发明不受此处所公开的具体实施例的限制,所有落入本申请的权利要求范围内的实施例都属于本发明所保护的范围内。

Claims (10)

1.一种智能垃圾收运车垃圾图像分类方法,其特征在于,包括如下步骤:
步骤1:清运员把易腐垃圾桶和其他垃圾桶放到垃圾收运车上,打开垃圾桶的盖子,清运员在车载智能电子秤的触摸屏上进行人工操作,电子秤将重量直接在操作界面上显示,清运员选择垃圾的类别后,点击合格、不合格或者空桶的按键并点击确认键;
步骤2:当清运员点击确认键后,放置在垃圾桶正上方的高清摄像头拍摄照片并传输到前端车载系统和后端的平台,后端平台将照片图像输入到垃圾图像分类算法进行分类,如果清运员两次分类结果都与垃圾分类算法不同,此图像被分为困难样本图像,并由后端的工作人员人工审核;如果出现是算法误报,则进行人工标注,将标注好的数据放入算法迭代更新数据集,当数据集中的新标记数据积累到一定数量后,用之对分类算法进行迭代更新;
步骤3:在清运车上装有前端语音反馈系统,前端语音反馈系统连接后端平台,基于清运员上传的不同信息做出相应的语音提示,若出现与垃圾工作人员的判定结果不一致的分类,后端平台把此信息反馈给前端车载系统,前端车载系统会以语音播报的形式提醒清运员,让清运员再确认一次垃圾分类是否正确。
2.根据权利要求1所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2的具体实现包括如下步骤:
步骤2.1:数据准备;
步骤2.2:构建垃圾分类模型网络结构;
步骤2.3:复合模型扩张;
步骤2.4:垃圾分类模型训练;
步骤2.5:构建特殊垃圾目标检测网络结构;
步骤2.6:垃圾分类模型使用。
3.根据权利要求2所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2.1具体为:
最初数据的构成是垃圾收运车所拍摄到的照片传送到后端数据库中,将这些拍摄到的图片通过人工分类成十二个类别:空称、其他垃圾不合格、其他垃圾合格、其他垃圾空桶、其他垃圾桶未打开、易腐垃圾不合格、易腐垃圾合格、易腐垃圾空桶、易腐垃圾桶未打开、手、黑屏(花屏)、其他;按照8:1:1划分为训练集、验证集、测试集,用于分类网络的训练;将拍摄到的图片进行人工标注目标框,标注的目标框类别分别是:西瓜皮、塑料瓶、易拉罐、衣服、玻璃瓶、蛋壳、纸巾、陶瓷、眼镜;按照8:1:1划分为训练集、验证集、测试集,用于垃圾目标检测网络训练。
4.根据权利要求3所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2.2具体为:
垃圾分类模型采用一种基于复合模型扩张结合神经结构搜索技术的卷积神经网络作为骨干网络,输入网络的图像数据经过移动翻转瓶颈卷积模块与注意力机制模块提取特征,卷积层的输出部分采用Swish激活函数:
Figure FDA0003248029700000021
通道注意力模块最后一层全连接层采用Sigmoid激活函数;网络的深度、宽度与输入图像的分辨率大小通过复合模型扩张方法搭配神经构架搜索技术决定。
5.根据权利要求4所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2.3具体为:
将网络深度设置为
Figure FDA0003248029700000022
网络宽度设置为:
Figure FDA0003248029700000023
输入图像分辨率为
Figure FDA0003248029700000024
并通过α·β2·γ2≈2且α≥1,β≥1,γ≥1两个条件来限制三个参数,α,β,γ分别衡量着网络深度,宽度和输入图像分辨率的比重,使用复合系数
Figure FDA0003248029700000031
来统一的修正α,β,γ;固定
Figure FDA0003248029700000032
通过网格搜索得出最优的α,β,γ,得到最基本的网络模型;
固定α,β,γ的值,
Figure FDA0003248029700000033
的大小对应着消耗资源的大小,因为计算资源的不同,使用不同的
Figure FDA0003248029700000034
得到适配其计算资源的网络模型;
当计算资源变大,使用
Figure FDA0003248029700000035
作为复合参数,通过α·β2·γ2≈2且α≥1,β≥1,γ≥1两个条件,当
Figure FDA0003248029700000036
时通过网络搜索的方式得出其最优的α,β,γ,此时的网络模型的网络深度为
Figure FDA0003248029700000037
网络宽度设置为:
Figure FDA0003248029700000038
输入图像分辨率为
Figure FDA0003248029700000039
此网络模型为复合系数为
Figure FDA00032480297000000310
时的最优网络。
6.根据权利要求5所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2.4具体为:
提取出来的特征会进入池化层、全连接层和Sofamax分类层(步骤2.1中的十二个类别),输出垃圾类别的最大概率作为此垃圾分类的类别,此分类模型的损失函数为:
Figure FDA00032480297000000311
N表示类别数量,y(i)表示指示变量(0或1),如果样本i的预测类别和真实类别相同就是1,否则是0;
Figure FDA00032480297000000312
指的是对于观测样本i是正确的预测概率;
在训练的过程中,对网络参数赋初始化数值,设置网络的最大迭代次数m;将准备好的数据集输入网络,进行训练;如果loss值一直下降,则继续训练,直到迭代m次后,得到最终的模型;如果loss值在中途趋于稳定,则停止迭代,得到最终的模型。
7.根据权利要求6所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2.5具体为:
检测网络与分类网络使用同一个骨干网络,图像数据输入卷积层提取特征时,将卷积层最后五层得到不同尺度的特征放入双向加权特征金字塔网络,双向特征金字塔网络的结构:
P3 out=Conv(P3 in+P4 td)
P4 td=Conv(P4 in+Resize(P5 td))
PA out=Conv(P4 in+P4 td+Resize(P3 out))
...
P6 td=Conv(P6 in+Resize(P7 in))
P6 out=Conv(P6 in+P6 td+Resize(P5 out))
P7 out=Conv(P7 in+Resize(P6 out))
其中Px out表示第X层卷积层所提取的特征通过双向加权特征金字塔网络输出的结果;Px in表示第Y层卷积层所提取的特征输入到金字塔网络中;Resize表示的是通过几何变换的操作把图片的大小到相同尺寸;PY td表示第Y层卷积层所提取的特征,在输出结果之前先进行一次特征融合的结果;将经过双向加权特征金字塔网络所得到的特征输入到分类预测网络和边框预测网络中,最终输出结果特殊垃圾目标的分类和位置信息;
CL是目标检测分支的分类损失函数:
Figure FDA0003248029700000041
LocL是目标检测分支的定位损失函数:
Figure FDA0003248029700000042
y表示人工标注图像的类别;p(n)为预测为类别y的概率;α和
Figure FDA0003248029700000043
为平衡参数,用来平衡正负样本的权重,能够降低易分样本损失贡献;
Figure FDA0003248029700000051
代表预测的检测框参数,
Figure FDA0003248029700000052
代表检测框标注参数。
8.根据权利要求7所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤2.6具体为:
输入某一次扔的垃圾的图像,先将主干网络提取的特征输入分类分支,输出图像的分类结果和置信度,当分类置信度大于阈值l2(l2>0.5)时,直接将网络分类分支的输出作为最终预测结果;当分类置信度大于0.5但小于阈值l2时,将主干网络提取的特征图输入目标检测分支,输出检测框信息(c,x,y,w,h),其中c为垃圾的类别,将检测分支输出类别的具体垃圾种类与其他或易腐垃圾桶进行智能分析并确定此次垃圾分类最终输出的类别是其他垃圾合格、其他垃圾不合格、易腐垃圾合格、易腐垃圾不合格其中之一。
9.根据权利要求8所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤3的具体步骤为:
步骤3.1:电子秤重量反馈系统与后端模糊图像识别反馈系统:收运员完成分类后,前端车载系统同时向后端发送电子秤重量数据与图片数据;
当后端得到的重量数据小于阈值M(桶重)+Δa(参数),前端语音系统会做出语音提示:“请正确放置后再进行下一步操作”,此时收运员需要将垃圾桶摆放正确使得电子称重量达到阈值M(桶重)+Δa(参数),才能进行下一步操作;
后端接受到前端的图像数据后,将其放入由efficienctNet为网络模型模糊图像和清晰图像的二分类神经网络,输出的图像为模糊图像,前端语音系统会做出语音提示:“图像模糊,请再进行一次正确操作流程的步骤”;满足电子秤重量数据合理和传输图像是清晰图像两个条件则将清晰图像传入步骤3.2的图像识别系统;
步骤3.2:后端图像识别反馈系统:后端系统中进行十二个分类任务时对于不同类别的出现,车载反馈系统反馈不同的指令;
步骤3.3:重复操作处理方法:当进行电子秤重量反馈系统与后端模糊图像识别反馈系统时,第一次操作后前端语音系统播报内容为:“请正确放置后再进行下一步操作”或“图像模糊,请再进行一次正确操作流程的步骤”,第二次操作后前端语音系统仍然播报相同的内容,则出现新的语音提示:“出现故障请拨打工作人员电话”,此时需要工作人员进行协助处理;
当进行后端图像识别反馈系统时,第一次图片识别为“手”、“黑屏(花屏)类别”、“空称”和其他、易腐垃圾桶未打开”类别后,重复操作后得到的仍是上述类别时,第三次输入后端系统后,前端语音提示:“分类已完成”,此类图片需要通过人工进行甄别与分类。
10.根据权利要求9所述的智能垃圾收运车垃圾图像分类方法,其特征在于,步骤3.2中后端系统中进行十二个分类任务时对于不同类别的出现,车载反馈系统反馈不同的指令为:
1)当图片传输到后端算法并分为“其他、易腐垃圾桶未打开”时,此时后端系统会反馈到前端语音系统中并提醒:“请打开盖子后重新操作”;
2)当图片传输到后端算法并分为“空称”时,此时后端系统会反馈到前端语音系统中并提醒:“请清运员放入指定垃圾桶后进行重新操作”;
3)当图片传输到后端算法并分为“黑屏(花屏)类别”时,后端系统会反馈到前端语音系统中并语音提示清运员:“请重新进行一次操作”;
4)当图片传输到后端算法并分为“手”类别时,后端系统会反馈到前端语音系统中并语音提示清运员:“请清运员将手臂移出摄像机范围并重新操作”。
CN202111038096.7A 2021-09-06 2021-09-06 一种智能垃圾收运车垃圾图像分类方法 Active CN113743404B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111038096.7A CN113743404B (zh) 2021-09-06 2021-09-06 一种智能垃圾收运车垃圾图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111038096.7A CN113743404B (zh) 2021-09-06 2021-09-06 一种智能垃圾收运车垃圾图像分类方法

Publications (2)

Publication Number Publication Date
CN113743404A true CN113743404A (zh) 2021-12-03
CN113743404B CN113743404B (zh) 2023-06-30

Family

ID=78736031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111038096.7A Active CN113743404B (zh) 2021-09-06 2021-09-06 一种智能垃圾收运车垃圾图像分类方法

Country Status (1)

Country Link
CN (1) CN113743404B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11527072B2 (en) * 2017-10-24 2022-12-13 Mcneilus Truck And Manufacturing, Inc. Systems and methods for detecting waste receptacles using convolutional neural networks
CN117522388A (zh) * 2023-11-08 2024-02-06 永昊环境科技(集团)有限公司 一种用于城市环境的智能环卫处理方法
US12006141B2 (en) 2022-10-25 2024-06-11 Mcneilus Truck And Manufacturing, Inc. Systems and methods for detecting waste receptacles using convolutional neural networks

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619350A (zh) * 2019-08-12 2019-12-27 北京达佳互联信息技术有限公司 图像检测方法、装置及存储介质
CN112508103A (zh) * 2020-12-10 2021-03-16 浙江金实乐环境工程有限公司 一种基于垃圾收运车的易腐垃圾图像识别与考核管理方法
CN112735480A (zh) * 2021-01-25 2021-04-30 杭州电子科技大学 一种基于神经网络的声带病变检测装置
CN112949494A (zh) * 2021-03-03 2021-06-11 上海东普信息科技有限公司 灭火器位置检测方法、装置、设备及存储介质
CN113221804A (zh) * 2021-05-25 2021-08-06 城云科技(中国)有限公司 一种基于监控视频的乱堆物料检测方法、装置及应用

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619350A (zh) * 2019-08-12 2019-12-27 北京达佳互联信息技术有限公司 图像检测方法、装置及存储介质
CN112508103A (zh) * 2020-12-10 2021-03-16 浙江金实乐环境工程有限公司 一种基于垃圾收运车的易腐垃圾图像识别与考核管理方法
CN112735480A (zh) * 2021-01-25 2021-04-30 杭州电子科技大学 一种基于神经网络的声带病变检测装置
CN112949494A (zh) * 2021-03-03 2021-06-11 上海东普信息科技有限公司 灭火器位置检测方法、装置、设备及存储介质
CN113221804A (zh) * 2021-05-25 2021-08-06 城云科技(中国)有限公司 一种基于监控视频的乱堆物料检测方法、装置及应用

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
肖文福: "基于卷积神经网络的多人姿态估计", 《中国优秀硕士学位论文全文数据库 信息科技辑》, pages 1 - 63 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11527072B2 (en) * 2017-10-24 2022-12-13 Mcneilus Truck And Manufacturing, Inc. Systems and methods for detecting waste receptacles using convolutional neural networks
US12006141B2 (en) 2022-10-25 2024-06-11 Mcneilus Truck And Manufacturing, Inc. Systems and methods for detecting waste receptacles using convolutional neural networks
CN117522388A (zh) * 2023-11-08 2024-02-06 永昊环境科技(集团)有限公司 一种用于城市环境的智能环卫处理方法
CN117522388B (zh) * 2023-11-08 2024-04-12 永昊环境科技(集团)有限公司 一种用于城市环境的智能环卫处理方法

Also Published As

Publication number Publication date
CN113743404B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
Li et al. Automatic detection and classification system of domestic waste via multimodel cascaded convolutional neural network
CN113743404A (zh) 一种智能垃圾收运车垃圾图像分类方法
CN115731533B (zh) 一种基于改进YOLOv5的车载目标检测方法
CN109919243A (zh) 一种基于cnn的废钢铁种类自动识别方法及装置
CN106056226A (zh) 生活垃圾智能分类回收云识别系统及方法
CN110577037A (zh) 用于生活垃圾分类检查回收的方法
Gyawali et al. Comparative analysis of multiple deep CNN models for waste classification
CN113052005B (zh) 一种用于家居服务的垃圾分拣方法和垃圾分拣装置
CN109190488A (zh) 基于深度学习YOLOv3算法的前车车门打开检测方法及装置
CN108665007A (zh) 一种基于多分类器的推荐方法、装置及电子设备
CN111898502A (zh) 危险品车辆识别方法、装置及计算机存储介质、电子设备
Chen et al. Multi-objective solid waste classification and identification model based on transfer learning method
Song et al. Optimization of CNN-based garbage classification model
Soundarya et al. CNN based smart bin for waste management
US20240158160A1 (en) Systems and methods for enhancing waste disposal and energy efficiency using sensor and alternative power technologies
CN110775483A (zh) 社区智能垃圾回收装置、方法、电子设备及存储介质
CN114782814A (zh) 一种基于机器视觉的环境污染源识别方法和装置
Lahcen et al. Waste solid management using Machine learning approch
CN114782762A (zh) 一种垃圾图像检测方法以及小区垃圾站
CN112380986B (zh) 抗复杂街道背景干扰的车型检测方法、系统及存储介质
Liang et al. Prohibited items detection in X-ray images based on attention mechanism
Benslimane et al. Classifying logistic vehicles in cities using Deep learning
US11263482B2 (en) AI image recognition training tool sets
CN112508103B (zh) 一种基于垃圾收运车的易腐垃圾图像识别与考核管理方法
CN112508103A (zh) 一种基于垃圾收运车的易腐垃圾图像识别与考核管理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant