CN114119959A - 一种基于视觉的垃圾桶满溢检测方法及装置 - Google Patents

一种基于视觉的垃圾桶满溢检测方法及装置 Download PDF

Info

Publication number
CN114119959A
CN114119959A CN202111317194.4A CN202111317194A CN114119959A CN 114119959 A CN114119959 A CN 114119959A CN 202111317194 A CN202111317194 A CN 202111317194A CN 114119959 A CN114119959 A CN 114119959A
Authority
CN
China
Prior art keywords
model
garbage
overflow
data
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111317194.4A
Other languages
English (en)
Inventor
李晓凯
朱光强
王和平
欧阳一村
邓奇宝
罗富章
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxvision Technology Corp
Original Assignee
Maxvision Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxvision Technology Corp filed Critical Maxvision Technology Corp
Priority to CN202111317194.4A priority Critical patent/CN114119959A/zh
Publication of CN114119959A publication Critical patent/CN114119959A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于视觉的垃圾桶满溢检测方法及装置,其方法包括:训练得到用于检测垃圾桶位置的目标检测模型;利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;将待检测监控图片输入到目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标提取每张图片的特征信息,将特征信息输入垃圾满溢分类模型,判断是否满溢。本申请通过上述方案提出一种新的垃圾桶满溢检测方法,先用目标检测算法检测出垃圾桶的位置然后利用分类网络对垃圾桶是否满溢进行判别,对比传统的单一的检测算法,该方法不仅可以达到更高的精度,而且也适用新型的垃圾分类垃圾箱。

Description

一种基于视觉的垃圾桶满溢检测方法及装置
技术领域
本发明属于人工智能技术领域,具体涉及一种垃圾桶满溢检测方法。
背景技术
随着社会文明的进步,人们对城市环境的要求越来越高,以往针对城市中的垃圾桶是否满溢是需要人工时时监管的,不仅需要大量的人工劳动力还会存在监管不及时的情况,如果监管不及时可能会出现垃圾溢出的现象,不仅影响市容还会对环境造成污染。现如今在智慧城市的大背景下,可以依靠人工智能技术基于视觉对垃圾桶是否满溢自动做出判断,不仅可以做到实时监管,还大大节省了人工监管的成本。
针对垃圾桶是否满溢的判断,传统的方法都是简单地通过目标检测来做的。考虑到现实场景摄像头安装的高低和角度的不同,仅仅通过目标检测来判断垃圾是否满溢的方法只适用于垃圾桶满溢明显的情况,对于大多能看到桶内垃圾但还没有满溢的情况会产生误报,认为已经满溢并需要人工处理。特别是新型的垃圾分类垃圾箱,垃圾满溢时的特征并不明显,这时,仅仅依靠目标检测来判断是否满溢就需要大量的样本和标注作为训练支撑,这无疑增加了人工成本。
发明内容
在下文中给出了关于本发明实施例的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,以下概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
根据本申请的一个方面,提供一种基于视觉的垃圾桶满溢检测方法,其包括:
步骤S1:训练得到用于检测垃圾桶位置的目标检测模型;
步骤S2:利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;
步骤S3:将待检测监控图片输入到步骤S1的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标获得垃圾桶的中心坐标和宽高,并根据垃圾桶的中心坐标获取每张图片的特征信息,将特征信息输入步骤S2的垃圾满溢分类模型,判断是否满溢。其中,所述待检测监控图片为摄像头现场拍摄的垃圾桶图片。
优选地,每张图片的特征信息为每张图片的感兴趣区域roi。感兴趣区域roi,是机器视觉、图像处理中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域,称为感兴趣区域,其是现有技术,这里不再赘述。
上述垃圾满溢分类模型为半监督训练模块,该方法不需要大量人工标注就能训练出高精度的模型,可以大大减少人工成本。
进一步的,所述步骤S1中,目标检测模型基于YOLO算法而实现,用于检测垃圾桶的位置。
进一步的,所述步骤S2包括:
步骤S21:准备分类所需的垃圾桶数据集D1{(x1,y1),(x2,y2),...,(xn,yn)}和
Figure BDA0003344111420000031
其中D1是带有真实的是否满溢标签的数据,是否满溢标签包括垃圾桶满溢标签和垃圾桶未满溢标签,xn表示第n个带标签的样本,对应的标签为yn,D2是海量的无标签数据,
Figure BDA0003344111420000032
表示第m个无标签的样本。
步骤S22:利用数据集D1训练教师模型T,通过不断减少交叉熵损失,直至模型收敛,其网络损失函数为:
Figure BDA0003344111420000033
其中,xn表示第n个样本,xi表示第i个样本,i={1,2,……,n};
网络损失函数是判断模型是否收敛的依据,损失函数计算值越小证明收敛的越好;
步骤S23:利用教师模型T为无标签数据集D2的每一个样本生成分类概率和伪标签,并根据阈值h过滤掉分类概率小于阈值的样本后生成数据集D3
Figure BDA0003344111420000034
其中,
Figure BDA0003344111420000035
为样本
Figure BDA0003344111420000036
对应的伪标签,pi为其对应的分类概率。分类概率即是每个样本输入教师模型的输出结果,阈值h一般可设为0.5。
步骤S24:对数据集D1和D3进行数据增强;
步骤S25:利用步骤S24增强后的数据集D1和D3训练学生模型S,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure BDA0003344111420000041
其中,xi表示第i个样本;
步骤S26:把收敛的学生模型S当做教师模型,重复步骤S23-步骤S25;
步骤S27:经过n轮迭代,得到最终的垃圾满溢分类模型Sn。n为网络收敛所经历的次数。
使用时,将摄像头现场拍摄的垃圾桶图片输入到的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标根据位置坐标获得垃圾桶的中心坐标和宽高,并根据垃圾桶的中心坐标获取每张图片的感兴趣区域roi,将roi输入垃圾满溢分类模型Sn,判断是否满溢。
根据本申请的另一方面,提供一种基于视觉的垃圾桶满溢检测装置,其包括:
目标检测模型获取模块,该目标检测模型获取模块用于训练得到用于检测垃圾桶位置的目标检测模型;
垃圾满溢分类模型训练模块,该垃圾满溢分类模型训练模块利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;
执行检测模块,该执行检测模块用于将待检测监控图片输入到目标检测模型获取模块训练得到的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标提取每张图片的特征信息,将特征信息输入垃圾满溢分类模型训练模块训练得到的垃圾满溢分类模型,以判断是否满溢。
进一步的,垃圾满溢分类模型训练模块执行如下操作:
步骤S21:准备分类所需的垃圾桶数据集D1{(x1,y1),(x2,y2),...,(xn,yn)}和
Figure BDA0003344111420000051
其中D1是带有真实的是否满溢标签的数据,xn表示第n个带标签的样本,对应的标签为yn,D2是海量的无标签数据,
Figure BDA0003344111420000052
表示第m个无标签的样本。
步骤S22:利用数据集D1训练教师模型T,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure BDA0003344111420000053
步骤S23:利用教师模型T为无标签数据集D2的每一个样本生成分类概率和伪标签,并根据阈值h过滤掉分类概率小于阈值的样本,生成数据集D3
Figure BDA0003344111420000054
其中,
Figure BDA0003344111420000055
为样本
Figure BDA0003344111420000056
对应的伪标签,pi为其对应的分类概率。
步骤S24:对数据集D1和D3进行数据增强;
步骤S25:利用数据集D1和D3训练学生模型S,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure BDA0003344111420000057
步骤S26:把收敛的学生模型S当做教师模型,重复步骤S23-步骤S25;
步骤S27:经过n轮迭代,得到最终的垃圾满溢分类模型Sn
本申请通过上述方案提出一种新的垃圾桶满溢检测方法,先用目标检测算法检测出垃圾桶的位置然后利用垃圾满溢分类模型对垃圾桶是否满溢进行判别,对比传统的单一的检测算法,该方法不仅可以达到更高的精度,而且也适用新型的垃圾分类垃圾箱。此外,该方法先用目标检测算法检测出垃圾桶的位置,然后利用利用垃圾满溢分类模型(分类网络)对垃圾桶是否满溢进行判别,特别地,其垃圾满溢分类模型是一种半监督的模型训练方法,该方法可以为海量的无标签数据自动生成准确的标签,通过不断迭代来提高分类模型的精度,进而大大提高了垃圾分类垃圾箱的分类判断精度。综上,该垃圾桶满溢检测方法和装置减少了人力资源的浪费,及时处理垃圾并同时能实现精确的分类检测,保证垃圾的资源价值和经济价值,力争物尽其用,减少垃圾处理量和处理设备的使用。
附图说明
本发明可以通过参考下文中结合附图所给出的描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本发明的优选实施例和解释本发明的原理和优点。在附
图中:
图1为本发明实施例1中垃圾满溢分类方法示意图;
图2为本发明实施例1中垃圾满溢分类模型的训练过程的示意图;
图3为本发明实施例1垃圾满溢分类中判断满溢的流程图;
图4为本发明实施例2中基于视觉的垃圾桶满溢检测装置的示意图。
具体实施方式
下面将参照附图来说明本发明的实施例。应当注意,为了清楚的目的,附图和说明中省略了与本发明无关的、本领域普通技术人员已知的部件和处理的表示和描述。
实施例1
作为一个具体的实施例,参见图1,本发明的基于视觉的垃圾桶满溢检测方法包括:
步骤S1:训练得到用于检测垃圾桶位置的目标检测模型;
步骤S2:利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;
步骤S3:将待检测监控图片输入到步骤S1的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标获得垃圾桶的中心坐标和宽高,并根据垃圾桶的中心坐标获取每张图片的特征信息,将特征信息输入步骤S2的垃圾满溢分类模型,判断是否满溢。
需要说明的是,在步骤S1中,采用YOLO算法,训练目标检测模型,用于检测垃圾桶的位置。
如图2所示,步骤S2中,垃圾满溢分类模型的训练过程包括步骤S21-S27。下面分别进行说明。
步骤S21:准备分类所需的垃圾桶数据集D1{(x1,y1),(x2,y2),...,(xn,yn)}和
Figure BDA0003344111420000071
其中D1是带有真实的是否满溢标签的数据,xn表示第n个带标签的样本,对应的标签为yn,D2是海量的无标签数据,
Figure BDA0003344111420000072
表示第m个无标签的样本。
步骤S22:利用数据集D1训练教师模型T,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure BDA0003344111420000081
其中,xn表示第n个样本,xi表示第i个样本,i={1,2,……,n}。
步骤S23:利用教师模型T为无标签数据集D2的每一个样本生成分类概率和伪标签,并根据阈值h过滤掉分类概率小于阈值的样本,生成数据集D3:其中,分类概率通过如下公式进行计算:
Figure BDA0003344111420000082
其中,
Figure BDA0003344111420000083
为样本
Figure BDA0003344111420000084
对应的伪标签,pi为其对应的分类概率。
步骤S24:对数据集D1和D3进行数据增强,以增加数据集的数据量;数据增强为现有技术,其目的是增加数据量,可采用的方式有很多,对于图像的数据增强,可以通过几何变换和颜色变换来实现,这里不进行详述。
步骤S25:利用步骤S24增强后的数据集D1和D3训练学生模型S,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure BDA0003344111420000085
步骤S26:把收敛的学生模型S当做教师模型,重复步骤S23-步骤S25。
步骤S27:经过n轮迭代,得到最终的垃圾满溢分类模型Sn
如附图3所示,得到目标检测模型和垃圾满溢分类模型Sn后,在步骤S3中,将摄像头现场拍摄的垃圾桶图片输入到的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标获得垃圾桶的中心坐标和宽高,并根据垃圾桶的中心坐标获取每张垃圾桶图片的感兴趣区域roi,将感兴趣区域roi输入垃圾满溢分类模型Sn,判断是否满溢。
本申请通过上述方案提出一种新的垃圾桶满溢检测方法,该方法先用目标检测算法检测出垃圾桶的位置,然后利用分类网络对垃圾桶是否满溢进行判别,特别地,本发明的垃圾满溢分类模型是一种半监督的模型训练方法,该方法可以为海量的无标签数据自动生成准确的标签,通过不断迭代来提高分类模型的精度。
与现有技术相比,本发明的垃圾满溢分类模型为半监督训练模块,其利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练出最终的分类模型,该方法不需要大量人工标注就能训练出高精度的模型,可以大大减少人工成本。
实施例2
本实施例提供一种基于视觉的垃圾桶满溢检测装置,参见图3,其包括:
目标检测模型获取模块1,该目标检测模型获取模块用于训练得到用于检测垃圾桶位置的目标检测模型;
垃圾满溢分类模型训练模块2,该垃圾满溢分类模型训练模块利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;
执行检测模块3,该执行检测模块用于将待检测监控图片输入到目标检测模型获取模块训练得到的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标提取每张图片的特征信息,将特征信息输入垃圾满溢分类模型训练模块训练得到的垃圾满溢分类模型,以判断是否满溢。
其中,垃圾满溢分类模型训练模块执行实施例1中的步骤S1-步骤S8。
此外,与现有技术直接检测的流程相比,本发明采用先检测再分类的流程:先用目标检测算法检测出垃圾桶的位置然后利用分类网络对垃圾桶是否满溢进行判别,对比传统的单一的检测算法,该方法不仅可以达到更高的精度,而且也适用新型的垃圾分类垃圾箱。
此外,本发明的方法不限于按照说明书中描述的时间顺序来执行,也可以按照其他的时间顺序地、并行地或独立地执行。因此,本说明书中描述的方法的执行顺序不对本发明的技术范围构成限制。
尽管上面已经通过对本发明的具体实施例的描述对本发明进行了披露,但是,应该理解,上述的所有实施例和示例均是示例性的,而非限制性的。本领域的技术人员可在所附权利要求的精神和范围内设计对本发明的各种修改、改进或者等同物。这些修改、改进或者等同物也应当被认为包括在本发明的保护范围内。

Claims (5)

1.一种基于视觉的垃圾桶满溢检测方法,其特征在于:包括:
步骤S1:训练得到用于检测垃圾桶位置的目标检测模型;
步骤S2:利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;
步骤S3:将待检测监控图片输入到步骤S1的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标获得垃圾桶的中心坐标和宽高,并根据垃圾桶的中心坐标获取每张图片的特征信息,将特征信息输入步骤S2的垃圾满溢分类模型,判断是否满溢。
2.根据权利要求1所述的基于视觉的垃圾桶满溢检测方法,其特征在于:所述步骤S1中,目标检测模型基于YOLO算法而实现,用于检测垃圾桶的位置。
3.根据权利要求1所述的基于视觉的垃圾桶满溢检测方法,其特征在于:所述步骤S2包括:
步骤S21:准备分类所需的垃圾桶数据集D1{(x1,y1),(x2,y2),...,(xn,yn)}和
Figure FDA0003344111410000011
其中D1是带有真实的是否满溢标签的数据,xn表示第n个带标签的样本,对应的标签为yn,D2是海量的无标签数据,
Figure FDA0003344111410000012
表示第m个无标签的样本;
步骤S22:利用数据集D1训练教师模型T,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure FDA0003344111410000013
其中,xn表示第n个样本,xi表示第i个样本,i={1,2,……,n};
步骤S23:利用教师模型T为无标签数据集D2的每一个样本生成分类概率和伪标签,并根据阈值h过滤掉分类概率小于阈值的样本,生成数据集D3
Figure FDA0003344111410000021
其中,
Figure FDA0003344111410000022
为样本
Figure FDA0003344111410000023
对应的伪标签,pi为其对应的分类概率;
步骤S24:对数据集D1和D3进行数据增强;
步骤S25:利用步骤S24增强后的数据集D1和D3训练学生模型S,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure FDA0003344111410000024
步骤S26:把收敛的学生模型S当做教师模型,重复步骤S23-步骤S25;
步骤S27:经过n轮迭代,得到最终的垃圾满溢分类模型Sn
4.一种基于视觉的垃圾桶满溢检测装置,其特征在于:包括:
目标检测模型获取模块,该目标检测模型获取模块用于训练得到用于检测垃圾桶位置的目标检测模型;
垃圾满溢分类模型训练模块,该垃圾满溢分类模型训练模块利用训练好的教师模型为无标签的数据分配伪标签,利用带真实标签的数据和伪标签数据训练学生模型,通过不断迭代,训练得到垃圾满溢分类模型;
执行检测模块,该执行检测模块用于将待检测监控图片输入到目标检测模型获取模块训练得到的目标检测模型,得到每个垃圾桶的位置坐标,根据位置坐标提取每张图片的特征信息,将特征信息输入垃圾满溢分类模型训练模块训练得到的垃圾满溢分类模型,以判断是否满溢。
5.根据权利要求4所述的一种基于视觉的垃圾桶满溢检测装置,其特征在于:所述垃圾满溢分类模型训练模块执行如下操作:
步骤S21:准备分类所需的垃圾桶数据集D1{(x1,y1),(x2,y2),...,(xn,yn)}和
Figure FDA0003344111410000031
其中D1是带有真实的是否满溢标签的数据,xn表示第n个带标签的样本,对应的标签为yn,D2是海量的无标签数据,
Figure FDA0003344111410000032
表示第m个无标签的样本;
步骤S22:利用数据集D1训练教师模型T,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure FDA0003344111410000033
步骤S23:利用教师模型T为无标签数据集D2的每一个样本生成分类概率和伪标签,并根据阈值h过滤掉分类概率小于阈值的样本,生成数据集D3
Figure FDA0003344111410000034
其中,
Figure FDA0003344111410000035
为样本
Figure FDA0003344111410000036
对应的伪标签,pi为其对应的分类概率;
步骤S24:对数据集D1和D3进行数据增强;
步骤S25:利用数据集D1和D3训练学生模型S,通过不断减少交叉熵损失,直至模型收敛,网络的损失函数为:
Figure FDA0003344111410000037
步骤S26:把收敛的学生模型S当做教师模型,重复步骤S23-步骤S25;
步骤S27:经过n轮迭代,得到最终的垃圾满溢分类模型Sn
CN202111317194.4A 2021-11-09 2021-11-09 一种基于视觉的垃圾桶满溢检测方法及装置 Pending CN114119959A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111317194.4A CN114119959A (zh) 2021-11-09 2021-11-09 一种基于视觉的垃圾桶满溢检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111317194.4A CN114119959A (zh) 2021-11-09 2021-11-09 一种基于视觉的垃圾桶满溢检测方法及装置

Publications (1)

Publication Number Publication Date
CN114119959A true CN114119959A (zh) 2022-03-01

Family

ID=80377640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111317194.4A Pending CN114119959A (zh) 2021-11-09 2021-11-09 一种基于视觉的垃圾桶满溢检测方法及装置

Country Status (1)

Country Link
CN (1) CN114119959A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114283387A (zh) * 2022-03-08 2022-04-05 深圳市万物云科技有限公司 一种垃圾点保洁工单智能生成方法、装置及相关介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056996A (zh) * 2016-08-23 2016-10-26 深圳市时尚德源文化传播有限公司 一种多媒体交互教学系统及方法
CN110516570A (zh) * 2019-08-15 2019-11-29 东莞弓叶互联科技有限公司 一种基于视觉的垃圾分类识别方法和装置
CN110852420A (zh) * 2019-11-11 2020-02-28 北京智能工场科技有限公司 一种基于人工智能的垃圾分类方法
US20200090036A1 (en) * 2018-09-18 2020-03-19 Kabushiki Kaisha Toshiba Classification device, classification method, and computer program product
US20200349245A1 (en) * 2019-05-04 2020-11-05 Unknot.id Inc. Privacy preserving biometric signature generation
CN112308019A (zh) * 2020-11-19 2021-02-02 中国人民解放军国防科技大学 基于网络剪枝和知识蒸馏的sar舰船目标检测方法
US20210089878A1 (en) * 2019-09-20 2021-03-25 International Business Machines Corporation Bayesian nonparametric learning of neural networks
CN112560755A (zh) * 2020-12-24 2021-03-26 中再云图技术有限公司 一种识别城市暴露垃圾的目标检测方法
US20210097400A1 (en) * 2019-10-01 2021-04-01 Samsung Display Co., Ltd. System and method for knowledge distillation
CN112883921A (zh) * 2021-03-22 2021-06-01 北京易华录信息技术股份有限公司 一种垃圾桶满溢检测模型训练方法及垃圾桶满溢检测方法
WO2021139309A1 (zh) * 2020-07-31 2021-07-15 平安科技(深圳)有限公司 人脸识别模型的训练方法、装置、设备及存储介质
CN113221687A (zh) * 2021-04-28 2021-08-06 南京南瑞继保电气有限公司 一种压板状态识别模型的训练方法及压板状态识别方法
CN113610069A (zh) * 2021-10-11 2021-11-05 北京文安智能技术股份有限公司 基于知识蒸馏的目标检测模型训练方法
CN113610126A (zh) * 2021-07-23 2021-11-05 武汉工程大学 基于多目标检测模型无标签的知识蒸馏方法及存储介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056996A (zh) * 2016-08-23 2016-10-26 深圳市时尚德源文化传播有限公司 一种多媒体交互教学系统及方法
US20200090036A1 (en) * 2018-09-18 2020-03-19 Kabushiki Kaisha Toshiba Classification device, classification method, and computer program product
US20200349245A1 (en) * 2019-05-04 2020-11-05 Unknot.id Inc. Privacy preserving biometric signature generation
CN110516570A (zh) * 2019-08-15 2019-11-29 东莞弓叶互联科技有限公司 一种基于视觉的垃圾分类识别方法和装置
US20210089878A1 (en) * 2019-09-20 2021-03-25 International Business Machines Corporation Bayesian nonparametric learning of neural networks
US20210097400A1 (en) * 2019-10-01 2021-04-01 Samsung Display Co., Ltd. System and method for knowledge distillation
CN110852420A (zh) * 2019-11-11 2020-02-28 北京智能工场科技有限公司 一种基于人工智能的垃圾分类方法
WO2021139309A1 (zh) * 2020-07-31 2021-07-15 平安科技(深圳)有限公司 人脸识别模型的训练方法、装置、设备及存储介质
CN112308019A (zh) * 2020-11-19 2021-02-02 中国人民解放军国防科技大学 基于网络剪枝和知识蒸馏的sar舰船目标检测方法
CN112560755A (zh) * 2020-12-24 2021-03-26 中再云图技术有限公司 一种识别城市暴露垃圾的目标检测方法
CN112883921A (zh) * 2021-03-22 2021-06-01 北京易华录信息技术股份有限公司 一种垃圾桶满溢检测模型训练方法及垃圾桶满溢检测方法
CN113221687A (zh) * 2021-04-28 2021-08-06 南京南瑞继保电气有限公司 一种压板状态识别模型的训练方法及压板状态识别方法
CN113610126A (zh) * 2021-07-23 2021-11-05 武汉工程大学 基于多目标检测模型无标签的知识蒸馏方法及存储介质
CN113610069A (zh) * 2021-10-11 2021-11-05 北京文安智能技术股份有限公司 基于知识蒸馏的目标检测模型训练方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
席磊;: "论网络勃兴带来的媒介素养教育内容的革新", 戏剧之家(上半月), no. 06, 8 June 2014 (2014-06-08) *
汤伟;高涵;: "改进卷积神经网络算法在水面漂浮垃圾检测中的应用", 中国科技论文, no. 11, 15 November 2019 (2019-11-15) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114283387A (zh) * 2022-03-08 2022-04-05 深圳市万物云科技有限公司 一种垃圾点保洁工单智能生成方法、装置及相关介质

Similar Documents

Publication Publication Date Title
CN109657552B (zh) 基于迁移学习实现跨场景冷启动的车型识别装置与方法
CN111444821B (zh) 一种城市道路标志自动识别方法
CN106295653B (zh) 一种水质图像分类方法
CN104850865B (zh) 一种多特征迁移学习的实时压缩跟踪方法
CN106845415B (zh) 一种基于深度学习的行人精细化识别方法及装置
CN112215819B (zh) 基于深度特征融合的机场道面裂缝检测方法
CN105825511A (zh) 一种基于深度学习的图片背景清晰度检测方法
CN111967313B (zh) 一种深度学习目标检测算法辅助的无人机图像标注方法
CN110781882A (zh) 一种基于yolo模型的车牌定位和识别方法
CN104156729B (zh) 一种教室人数统计方法
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN106570885A (zh) 基于亮度和纹理融合阈值的背景建模方法
CN102073852A (zh) 基于最优阈值和随机标号法的多车辆分割方法
CN113469264A (zh) 一种垃圾自动分类模型的构建方法、垃圾分拣方法和系统
CN114119959A (zh) 一种基于视觉的垃圾桶满溢检测方法及装置
CN113469938B (zh) 基于嵌入式前端处理服务器的管廊视频分析方法及系统
CN113610024B (zh) 一种多策略的深度学习遥感影像小目标检测方法
Meria Development of Automatic Industrial Waste Detection System for Leather Products using Artificial Intelligence
CN109772593A (zh) 一种基于浮选泡沫动态特征的矿浆液位预测方法
CN105205833A (zh) 一种基于时空背景模型的运动目标检测方法及装置
CN210161172U (zh) 一种基于深度学习的瓶罐类垃圾识别分类机器人
CN109389152B (zh) 一种输电线路垂坠物的精细化识别方法
CN115294392B (zh) 基于生成网络模型的可见光遥感图像云去除方法及系统
CN109919964A (zh) 基于数学形态学的高斯背景建模技术进行图像处理的方法
CN103093241A (zh) 基于同质化处理的光学遥感图像非匀质云层判别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination