CN110852263B - 一种基于人工智能的手机拍照识别垃圾分类方法 - Google Patents
一种基于人工智能的手机拍照识别垃圾分类方法 Download PDFInfo
- Publication number
- CN110852263B CN110852263B CN201911094136.2A CN201911094136A CN110852263B CN 110852263 B CN110852263 B CN 110852263B CN 201911094136 A CN201911094136 A CN 201911094136A CN 110852263 B CN110852263 B CN 110852263B
- Authority
- CN
- China
- Prior art keywords
- mobile phone
- network
- garbage
- classification
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于人工智能的手机拍照识别垃圾分类方法,用户在手机移动端进行拍照垃圾识别分类时,首先由用户选择垃圾分类标准,分类标准可以是城市名称,也可以是其他的分类标准,用户选择的分类标准将被记录下,之后用户可以点击屏幕上的采集图像按钮来选择要识别的图像,识别图像后,图像上的垃圾位置和分类结果等信息将会标注在原图像上,使用户了解到图像上垃圾的位置及其相应的分类信息,最后用户可以选择是否保存图片结果,如果选择保存,则将处理后的图片保存在手机并发送到服务器端。本方法大概率对垃圾进行识别并正确分类,提高了分类的准确性。
Description
技术领域
本发明属于人工智能技术领域,具体涉及一种基于人工智能的手机拍照识别垃圾分类方法。
背景技术
随着人们环保意识的不断提高,人们越来越意识到垃圾回收对环境保护的重要性。目前,已有上海、北京、杭州和广州等多个城市已实施或拟实施垃圾分类管理条例。然而,有时人们对于不熟悉的垃圾可能不清楚垃圾的正确分类。对于老年人而言,也很难记住所有垃圾的分类方式。除此之外,由于不同城市的垃圾分类标准不尽相同,当人们去其他城市差旅时可能因为不熟悉当地的分类标准而对垃圾进行错误的分类。
目前有一些网页和手机程序提供垃圾分类查询的信息。用户可以通过手机程序或网页手动输入或者语音输入垃圾的名称来查询其对应的分类。应用过程中,用户需要通过键盘或语音输入想要查询的对象,在不方便打字或者讲话的情况下很难进行实时的查询。此外,实现方式主要是通过将垃圾分类信息收集并存放于数据库中,当用户发送查询请求时在数据库中搜索相应条目来完成的,当用户查询的对象不在数据库时,只能返回与查询对象相近的词语,然而在词语上相近的垃圾类别却并不一定相同,例如如“小龙虾壳”属于干垃圾,而“小龙虾肉”则属于湿垃圾。
发明内容
为克服上述现有技术的不足,本发明提供了一种基于人工智能的手机拍照识别垃圾分类方法,只需要用户打开手机程序对待识别物体进行图像采集,就可以获得图像中每个垃圾的边框及分类信息。
本发明提供的基于人工智能的手机拍照识别垃圾分类方法,其特征在于:
S201:开始。
S202:判断用户是否已经选择过垃圾分类标准;
S203:若用户之前已选择过垃圾分类标准,则读取用户之前选择的分类标准;
S204:若用户之前未选择过垃圾分类标准,则让用户选择标准;
S205:采集图像信息;
S206:识别图像中的垃圾;
S207:将识别的结果标注在原图像上,并显示在手机屏幕上;
根据本发明的一个优选实施方式,识别结果为每个垃圾物体的边框以及对应的垃圾分类。
S208:判断用户选择是否保存图片。
S209:若用户选择保存图片,则将标注好的图片保存在手机本地,并将原图像和标注数据保存在服务器端;
S210:若用户选择不保存图片,则结束。
优选地,采集图像的方式可以是用户进行拍照或录像,或是用户选择本地的照片。
优选地,分类标准可以是城市名称,也可以是具体分类标准名称或代码。
优选地,S206步骤中的识别图像中的垃圾在手机移动端进行识别。
优选地,S206步骤中的识别图像中的垃圾是使用手机将图像数据发送到服务器端,由服务器进行处理。
优选地,手机端处理识别的过程进一步包括:
S301:开始;
S302:判断手机端本地是否存在网络模型文件;
S303:若手机端不存在网络模型文件,则从服务器上下载用户选择的垃圾分类标注对应的网络模型到本地;
S304:在手机端使用网络模型对图片中的垃圾进行识别;
S305:结束。
优选地,服务器端处理识别的过程进一步包括:
S401:开始;
S402:将图像信息从手机端传送到服务器上;
S403:在服务器上使用网络模型对图片中的垃圾进行识别;
S404:将识别的结果信息从服务器传送到手机端;
S405:结束。
优选地,识别图像中每个垃圾物体进一步包括:
S501:使用预训练的卷积网络提取图片的特征图;
S502:使用候选区域网络从特征图中得到每个物体的位置候选框;
S503:使用池化层将每个候选框内的特征图缩放成固定的尺寸;
S504:将上一步经过缩放后的候选框内的特征图输入到分类用的卷积神经网络中,获得候选框内物体的分类结果。
S505:结束。
优选地,候选区域网路由全卷积网络实现。
优选地,服务器端准备流程进一步包括;
S101:在服务器上使用搜集到的垃圾图像数据及其标签训练用于检测垃圾的神经网络模型;
S102:对训练好的网络进行量化和剪枝;
S103:将上一步处理的网络模型存储到服务器指定位置。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。
附图说明
图1示出了根据本发明的一个实施例的服务器端流程图;
图2示出了根据本发明的一个实施例的手机端的图片处理流程图;
图3示出了根据本发明的一个实施例的手机端处理识别过程的流程图;
图4示出了根据本发明的一个实施例的服务器端处理识别过程的流程图;
图5示出了根据本发明的一个实施例的识别图像中每个垃圾物体的流程图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于人工智能的垃圾分类方法其具体实施方式、特征及其功效,详细说明如后。在下述说明中,不同的“一实施例”或“实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
相关术语如下:
人工智能:计算机科学的一个分支,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。
机器学习:机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。
深度学习:深度学习是使用深层机器学习模型进行特征提取和分类,用于自动学习数据特征的方法。
网络模型:神经网络模型是用于存储神经网络中节点信息的文件。
卷积神经网络:卷积神经网络是一种用来获取图像特征信息的神经网络。
候选区域网络:候选区域网络使用中用来从图像中获取物体位置信息的神经网络。
全连接网络:是一种对信息进行总结和归纳,常被用来作为分类器的神经网络。
本发明设计和实现了一种使用人工智能技术在手机上通过采集图像信息来识别垃圾类别的方法。通过这种方法,用户不需要打字或通过语音来输入查询信息,而只需要点击手机屏幕上的拍照、录制视频或选择照片按钮即可完成查询动作,查询的对象类别和位置也会可视化的显示在屏幕上,可以为用户提供更多的信息。考虑到识别方式方面,本方法使用了Faster-RCNN(高速识别卷积神经网络)来获取图像中垃圾对象的位置和分类信息。由于卷积神经网络对于物体纹理较为敏感的特性,其倾向于将纹理相似的物体分为相同的类别,如将“小龙虾壳”和“荔枝壳”划分为干垃圾,而将“小龙虾肉”和“荔枝肉”划分为湿垃圾,所以,这种方法相较于现有技术准确率更高,并能识别超过6000种垃圾。
为完成本发明所述的在手机上识别垃圾分类信息的功能,首先要在服务器端训练一个用于识别垃圾分类的神经网络模型,并对网络进行量化和剪枝来降低网络所占用的存储空间和加快网络的处理速度。之后,将神经网络模型存储于服务器上指定的位置。
图1示出了根据本发明的一个优选实施方式的服务器端流程图;
S101:在服务器上使用搜集到的垃圾图像数据及其标签训练用于检测垃圾的神经网络模型;
S102:对训练好的网络进行量化和剪枝;
量化的过程是将神经网络中的权重从高精度浮点数映射到低精度浮点数。剪枝是将对于网络作用较小的权重删除。通过对网络进行量化和剪枝,降低网络的大小,加快网络的处理速度。
S103:将上一步处理的网络模型存储到服务器指定位置。
根据本发明的一个优选实施方式,用户在手机移动端进行拍照垃圾识别分类时,首先由用户选择垃圾分类标准,分类标准可以是城市名称,也可以是其他的分类标准,用户选择的分类标准将被记录下来。之后用户可以点击屏幕上的采集图像按钮来选择要识别的图像。识别图像后,图像上的垃圾位置和分类结果等信息将会标注在原图像上,使用户了解到图像上垃圾的位置及其相应的分类信息。最后用户可以选择是否保存图片结果,如果选择保存,则将处理后的图片保存在手机并发送到服务器端。
图2示出了根据本发明的一个优选实施方式的手机端的图片处理流程图;
S201:开始。
S202:判断用户是否已经选择过垃圾分类标准;
S203:若用户之前已选择过垃圾分类标准,则读取用户之前选择的分类标准;
S204:若用户之前未选择过垃圾分类标准,则让用户选择标准;
S205:采集图像信息;
根据本发明的一个优选实施方式,采集图像的方式可以是用户进行拍照或录像,也可以是用户选择本地的照片等方式。
S206:识别图像中的垃圾;
S207:将识别的结果标注在原图像上,并显示在手机屏幕上;
根据本发明的一个优选实施方式,识别结果为每个垃圾物体的边框以及对应的垃圾分类。
S208:判断用户选择是否保存图片。
S209:若用户选择保存图片,则将标注好的图片保存在手机本地,并将原图像和标注数据保存在服务器端;
S210:若用户选择不保存图片,则结束。
根据本发明的一个优选实施方式,提供两种方法来处理S206步骤中识别过程,一种是识别过程在手机移动端进行,另一种是使用手机将图像数据发送到服务器端,由服务器进行处理。
根据本发明的一个优选实施方式,图3示出了手机端处理识别过程的流程图。
S301:开始。
S302:判断手机端本地是否存在网络模型文件。
S303:若手机端不存在网络模型文件,则从服务器上下载用户选择的垃圾分类标注对应的网络模型到本地。
S304:在手机端使用网络模型对图片中的垃圾进行识别。
S305:结束。
根据本发明的一个优选实施方式,图4示出了服务器端处理识别过程的流程图。
S401:开始。
S402:将图像信息从手机端传送到服务器上。
S403:在服务器上使用网络模型对图片中的垃圾进行识别。
S404:将识别的结果信息从服务器传送到手机端。
S405:结束。
根据本发明的一个优选实施方式,图5示出了识别图像中每个垃圾物体的具体算法。根据本发明的一个优选实施方式,识别所用的网络模型分为三部分,首先是一个预训练过的卷积网络模型,用于从图片中提取特征图;然后使用候选区域网络从特征图上获得每个垃圾物体的位置候选框;最后,使用一个卷积网络和全连接网络的组合对每个候选框内的图片进行分类。
S501:使用预训练的卷积网络提取图片的特征图。
根据本发明的一个优选实施方式,特征图的大小为:
Feathershape=W*H*d
其中W和H为提取到的特征图的宽度和长度,d为特征图的个数。
S502:使用候选区域网络从特征图中得到每个物体的位置候选框。
根据本发明的一个优选实施方式,候选区域网路由两个卷积层组成的全卷积网络实现,第一个卷积层输入为上一步中预训练卷积网络提取到的特征图。使用512个3*3大小的卷积核,将该特征图映射到一个高维空间。第二个卷积层由两个分支共同组成,在应用中两个分支网络对输入数据并行计算,其中一个用于输出候选区域的类别而另一个用于输出候选区域的位置。对于候选区域网络第一个卷积层输出的高维特征图,将该特征图分别输入到两个分支网络中,两个分支网络并行计算出各自的输出。其中一个为判别网络,由输入大小为512个通道,输出大小为2*k个通道的1*1卷积层实现。判别网络用于判断每个候选框内物体为正样本还是负样本(背景),判别网络的输出大小为:
RPNcls=W*H*2k
其中W与H分别代表特征图的宽度和长度,k代表特征图上每个点产生的候选框数量,2k表示对每个候选框分别产生正样本和负样本两个分数。
候选区域网络的另一个网络分支为回归网络,由输入大小为512个通道,输出大小为4*k个通道的1*1卷积层实现。该分支网络用于对产生的候选框位置进行微调。回归网络的输出大小为:
RPNreg=W*H*4k
其中W与H分别代表特征图的宽度和长度,k代表特征图上每个点产生的候选框数量,4k表示对每个候选框分别生成四个位置调整参数,调整的公式为:
S503:使用池化层将每个候选框内的特征图缩放成固定的尺寸,这样做的原因是每个候选框的大小不尽相同,而后面的分类网络只能以固定大小的图片作为输入。为了完成这一目的,首先将候选框内的特征图按照卷积的缩小比例因子放大回原图尺寸,然后按照池化层输出的尺寸将放大后的图缩小到固定尺寸。缩放的公式为:
(Wpool,Hpool)T=[scalew scaleh]*[1/poolw 1/poolh]*(Wpool,Hpool)T
其中W_pool和H_pool分别代表池化层处理后特征图的宽度和长度,W与H分别代表输入特征图的宽度和长度。scalew和scaleh代表卷积层处理后特征图缩小的倍数,poolw和poolh代表池化层缩小的倍数。
S504:将上一步经过缩放后的候选框内的特征图输入到分类用的卷积神经网络中,获得候选框内物体的分类结果和预测框位置。
由于垃圾的类别多达上千种,因此本发明中卷积分类网络使用双线性卷积网络来增加网络提取特征的能力,相比于其它类型的多分类卷积网络,这种网络可以在不过分增加网络复杂度的前提下显著增加分类的准确性。双线性卷积网络的具体实施为:使用两层由输入输出维度相等的3*3卷积层和2*2的最大值池化层共同构成的卷积层进行特征提取。将上一步输出的特征图复制为两份,将其中一份的第二个通道和第三个通道进行转置。将原特征图与转置后的特征图进行矩阵乘积,并将乘积结果压缩为一个维度的向量。对该向量进行求平方根和L2正则化操作。最后将处理后的向量并行输入到两个全连接层,其中一个全连接层用于输出预测的垃圾类别,另一个用于输出图片中垃圾图像的位置。通过这种方式,用户就可以在屏幕上获取拍摄的照片中每个垃圾物体的位置及其类别。
S505:结束。
本发明不需要用户使用键盘或者语音输入想要查询的垃圾类别,而只需点击屏幕上的采集图像按钮即可识别垃圾并获取垃圾分类信息,操作更加便利,返回的结果标注在屏幕上,用户可以存储图片方便日后再次查询。与键盘输入和语音输入相比,本发明设计的拍照识别垃圾方法可以一次性识别图片中的多个物体,用户可以获得更多的信息。除此之外,对于数据库中不包含的垃圾物体,本方法也有很大的概率对垃圾进行识别并正确分类,提高了分类的准确性。
1.在训练识别垃圾的网络后对网络进行量化和剪枝,以降低网络模型的大小并提高网络模型的处理速度。
2.在手机上允许用户选择垃圾分类标准,并能够储存用户所选择的分类标准。
3.使用手机上的拍照、摄像和选择照片等功能获取待识别垃圾分类信息的图像。
4.使用人工智能技术对图像上的垃圾物体按照用户选择的垃圾分类标准进行识别和分类。识别过程可以在手机端进行,也可以在服务器端进行。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (10)
1.一种基于人工智能的手机拍照识别垃圾分类方法,其特征在于:
S201:开始;
S202:判断用户是否已经选择过垃圾分类标准;
S203:若用户之前已选择过垃圾分类标准,则读取用户之前选择的分类标准;
S204:若用户之前未选择过垃圾分类标准,则让用户选择标准;
S205:采集图像信息;
S206:识别图像中每个垃圾物体;
S207:将识别的结果标注在原图像上,并显示在手机屏幕上;
识别结果为每个垃圾物体的边框以及对应的垃圾分类;
S208:判断用户选择是否保存图片;
S209:若用户选择保存图片,则将标注好的图片保存在手机本地,并将原图像和标注数据保存在服务器端;
S210:若用户选择不保存图片,则结束;
其中,识别图像中每个垃圾物体进一步包括:
S501:使用预训练的卷积网络提取图片的特征图;
S502:使用候选区域网络从特征图中得到每个物体的位置候选框;
S503:使用池化层将每个候选框内的特征图缩放成固定的尺寸;
S504:将上一步经过缩放后的候选框内的特征图输入到分类用的卷积神经网络中,获得候选框内物体的分类结果;
其中,卷积分类网络使用双线性卷积网络;使用两层由输入输出维度相等的3*3卷积层和2*2的最大值池化层共同构成的卷积层进行特征提取;将上一步输出的特征图复制为两份,将其中一份的第二个通道和第三个通道进行转置;将原特征图与转置后的特征图进行矩阵乘积,并将乘积结果压缩为一个维度的向量;对该向量进行求平方根和L2正则化操作;最后将处理后的向量并行输入到两个全连接层,其中一个全连接层用于输出预测的垃圾类别,另一个用于输出图片中垃圾图像的位置;通过这种方式,用户可在屏幕上获取拍摄的照片中每个垃圾物体的位置及其类别;
S505:结束。
2.根据权利要求1所述的基于人工智能的手机拍照识别垃圾分类方法,其特征在于,
采集图像的方式可以是用户进行拍照或录像,或是用户选择本地的照片。
3.根据权利要求2所述的基于人工智能的手机拍照识别垃圾分类方法,其特征在于,
分类标准可以是城市名称,也可以是具体分类标准名称或代码。
4.根据权利要求3所述的基于人工智能的手机拍照识别垃圾分类方法,其特征在于,
S206步骤中的识别图像中的垃圾在手机移动端进行识别。
5.根据权利要求4所述的基于人工智能的手机拍照识别垃圾分类方法,其特征在于,
S206步骤中的识别图像中的垃圾是使用手机将图像数据发送到服务器端,由服务器进行处理。
6.根据权利要求4所述的基于人工智能的手机拍照识别垃圾分类方法,其中手机端处理识别的过程进一步包括:
S301:开始;
S302:判断手机端本地是否存在网络模型文件;
S303:若手机端不存在网络模型文件,则从服务器上下载用户选择的垃圾分类标注对应的网络模型到本地;
S304:在手机端使用网络模型对图片中的垃圾进行识别;
S305:结束。
7.根据权利要求5所述的基于人工智能的手机拍照识别垃圾分类方法,其中服务器端处理识别的过程进一步包括:
S401:开始;
S402:将图像信息从手机端传送到服务器上;
S403:在服务器上使用网络模型对图片中的垃圾进行识别;
S404:将识别的结果信息从服务器传送到手机端;
S405:结束。
8.根据权利要求1-7任一所述的基于人工智能的手机拍照识别垃圾分类方法,其中S501~S505进一步包括:
S501:使用预训练的卷积网络提取图片的特征图;
特征图的大小为:
Feathershape=W*H*d
其中W和H为提取到的特征图的宽度和长度,d为特征图的个数;
S502:使用候选区域网络从特征图中得到每个物体的位置候选框;
候选区域网路由两个卷积层组成的全卷积网络实现,第一个卷积层输入为上一步中预训练卷积网络提取到的特征图;将该特征图映射到一个高维空间;第二个卷积层由两个分支共同组成,在应用中两个分支网络对输入数据并行计算,其中一个用于输出候选区域的类别而另一个用于输出候选区域的位置;对于候选区域网络第一个卷积层输出的高维特征图,将该特征图分别输入到两个分支网络中,两个分支网络并行计算出各自的输出;其中一个为判别网络;判别网络用于判断每个候选框内物体为正样本还是负样本,判别网络的输出大小为:
RPNels=W*H*2k
其中W与H分别代表特征图的宽度和长度,k代表特征图上每个点产生的候选框数量,2k表示对每个候选框分别产生正样本和负样本两个分数;
候选区域网络的另一个网络分支为回归网络;该分支网络用于对产生的候选框位置进行微调;回归网络的输出大小为:
RPNreg=W*H*4k
其中W与H分别代表特征图的宽度和长度,k代表特征图上每个点产生的候选框数量,4k表示对每个候选框分别生成四个位置调整参数;
S503:使用池化层将每个候选框内的特征图缩放成固定的尺寸;首先将候选框内的特征图按照卷积的缩小比例因子放大回原图尺寸,然后按照池化层输出的尺寸将放大后的图缩小到固定尺寸;缩放的公式为:
(Wpool,Hpool)T=[scalew scaleh]*[1/poolw 1/poolh]*(Wpool,Hpool)T
其中Wpool 和 Hpool 分别代表池化层处理后特征图的宽度和长度,W与H分别代表输入特征图的宽度和长度;scalew和scaleh代表卷积层处理后特征图缩小的倍数,poolw和poolh代表池化层缩小的倍数;
S504:将上一步经过缩放后的候选框内的特征图输入到分类用的卷积神经网络中,获得候选框内物体的分类结果和预测框位置;
S505:结束。
9.根据权利要求8所述的基于人工智能的手机拍照识别垃圾分类方法,其中候选区域网路由全卷积网络实现。
10.根据权利要求9所述的基于人工智能的手机拍照识别垃圾分类方法,其中服务器端准备流程进一步包括;
S101:在服务器上使用搜集到的垃圾图像数据及其标签训练用于检测垃圾的神经网络模型;
S102:对训练好的网络进行量化和剪枝;
S103:将上一步处理的网络模型存储到服务器指定位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911094136.2A CN110852263B (zh) | 2019-11-11 | 2019-11-11 | 一种基于人工智能的手机拍照识别垃圾分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911094136.2A CN110852263B (zh) | 2019-11-11 | 2019-11-11 | 一种基于人工智能的手机拍照识别垃圾分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110852263A CN110852263A (zh) | 2020-02-28 |
CN110852263B true CN110852263B (zh) | 2021-08-03 |
Family
ID=69601229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911094136.2A Active CN110852263B (zh) | 2019-11-11 | 2019-11-11 | 一种基于人工智能的手机拍照识别垃圾分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110852263B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT525405A1 (de) * | 2021-09-07 | 2023-03-15 | Brantner Env Group Gmbh | Computerimplementiertes Verfahren zur Klassifizierung von Abfall |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111611261B (zh) * | 2020-05-24 | 2023-09-01 | 山东三宏信息科技有限公司 | 基于文本解耦合的垃圾分类识别系统 |
CN112949509A (zh) * | 2021-03-08 | 2021-06-11 | 三一智造(深圳)有限公司 | 一种基于人工智能的垃圾分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182455A (zh) * | 2018-01-18 | 2018-06-19 | 齐鲁工业大学 | 一种垃圾图像智能分类的方法、装置及智能垃圾桶 |
CN110194338A (zh) * | 2019-07-17 | 2019-09-03 | 简科宇 | 垃圾分类回收装置 |
CN110210635A (zh) * | 2019-06-05 | 2019-09-06 | 周皓冉 | 一种能识别废弃物的智能分类回收系统 |
CN110427896A (zh) * | 2019-08-07 | 2019-11-08 | 成都理工大学 | 一种基于卷积神经网络的垃圾分类智能系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170128648A (ko) * | 2016-05-12 | 2017-11-23 | 주식회사 협성엠티 | 쓰레기 무단투기 감시장치 |
CN106874954A (zh) * | 2017-02-20 | 2017-06-20 | 佛山市络思讯科技有限公司 | 一种信息获取的方法以及相关装置 |
CN106991440B (zh) * | 2017-03-29 | 2019-12-24 | 湖北工业大学 | 一种基于空间金字塔的卷积神经网络的图像分类方法 |
-
2019
- 2019-11-11 CN CN201911094136.2A patent/CN110852263B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182455A (zh) * | 2018-01-18 | 2018-06-19 | 齐鲁工业大学 | 一种垃圾图像智能分类的方法、装置及智能垃圾桶 |
CN110210635A (zh) * | 2019-06-05 | 2019-09-06 | 周皓冉 | 一种能识别废弃物的智能分类回收系统 |
CN110194338A (zh) * | 2019-07-17 | 2019-09-03 | 简科宇 | 垃圾分类回收装置 |
CN110427896A (zh) * | 2019-08-07 | 2019-11-08 | 成都理工大学 | 一种基于卷积神经网络的垃圾分类智能系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT525405A1 (de) * | 2021-09-07 | 2023-03-15 | Brantner Env Group Gmbh | Computerimplementiertes Verfahren zur Klassifizierung von Abfall |
Also Published As
Publication number | Publication date |
---|---|
CN110852263A (zh) | 2020-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020221298A1 (zh) | 文本检测模型训练方法、文本区域、内容确定方法和装置 | |
CN111062871B (zh) | 一种图像处理方法、装置、计算机设备及可读存储介质 | |
CN111177446B (zh) | 一种用于足迹图像检索的方法 | |
CN110852263B (zh) | 一种基于人工智能的手机拍照识别垃圾分类方法 | |
WO2021022521A1 (zh) | 数据处理的方法、训练神经网络模型的方法及设备 | |
US8116596B2 (en) | Recognizing image environment from image and position | |
CN110851641B (zh) | 跨模态检索方法、装置和可读存储介质 | |
US20120287304A1 (en) | Image recognition system | |
CN110147460B (zh) | 基于卷积神经网络与多视角图的三维模型检索方法及装置 | |
CN114510594A (zh) | 一种基于自注意力机制的传统纹样子图检索方法 | |
CN113408570A (zh) | 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端 | |
CN111061887A (zh) | 一种新闻人物照片提取方法、装置、设备及存储介质 | |
CN112069326A (zh) | 知识图谱的构建方法、装置、电子设备及存储介质 | |
CN115131811A (zh) | 目标识别及模型训练方法、装置、设备、存储介质 | |
CN114972506B (zh) | 一种基于深度学习和街景图像的图像定位方法 | |
CN114995729A (zh) | 一种语音绘图方法、装置及计算机设备 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN112069335A (zh) | 图像分类方法、装置、电子设备及存储介质 | |
CN112015937B (zh) | 一种图片地理定位方法及系统 | |
CN111881997A (zh) | 一种基于显著性的多模态小样本学习方法 | |
CN116630749A (zh) | 工业设备故障检测方法、装置、设备以及存储介质 | |
CN111178370A (zh) | 车辆检索方法及相关装置 | |
CN114461827A (zh) | 一种以图搜图的方法及装置 | |
CN112069981A (zh) | 图像分类方法、装置、电子设备及存储介质 | |
Wu et al. | Chinese landmark recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |