CN109840561A - 一种可用于垃圾分类的垃圾图像自动生成方法 - Google Patents
一种可用于垃圾分类的垃圾图像自动生成方法 Download PDFInfo
- Publication number
- CN109840561A CN109840561A CN201910073616.4A CN201910073616A CN109840561A CN 109840561 A CN109840561 A CN 109840561A CN 201910073616 A CN201910073616 A CN 201910073616A CN 109840561 A CN109840561 A CN 109840561A
- Authority
- CN
- China
- Prior art keywords
- layer
- network
- image
- rubbish
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000010813 municipal solid waste Substances 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 14
- 230000002708 enhancing effect Effects 0.000 claims abstract description 7
- 238000005457 optimization Methods 0.000 claims abstract description 4
- 238000005070 sampling Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 238000013480 data collection Methods 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种可用于垃圾分类的垃圾图像自动生成方法,包括以下步骤:人工采集若干垃圾图像,对所得图像做数据增强和归一化处理,得到原始训练样本集;将原始训练样本集的训练样本数据转换为TFRecord格式;采用深度卷积神经网络构造生成网络;采用稀疏自编码深度卷积神经网络构造判别网络;采用交替迭代优化的方式训练生成网络和判别网络直至模型收敛;建立垃圾图像生成器,生成垃圾图像。本发明引入用于平衡生成网络和判别网络的平衡参数,利用平衡参数来更新学习率,以达到收敛条件,只需采集少量垃圾图像样本,即可自动生成大量高逼真度的垃圾图像样本,解决了人工采集图像样本过程劳动强大、可操作性差、成本昂贵的问题。
Description
技术领域
本发明涉及图像处理领域,特别涉及一种可用于垃圾分类的垃圾图像自动生成方法。
背景技术
垃圾分类是对垃圾进行有效处置的一种科学管理方法。面对日益增长的垃圾产量和环境状况恶化的局面,如何通过垃圾分类管理,最大限度地实现垃圾资源利用,减少垃圾处置量,改善生存环境质量,是当前世界各国共同关注的迫切问题之一。
目前,垃圾分类主要依靠人工完成,其劳动强度大,效率低,可分捡处理的垃圾种类十分有限;实际上,面对巨大的垃圾产量,只有极其少量的部分得到了有效的处理。随着垃圾的日益增多,如何实现对垃圾的自动化、智能化和规模化分捡处理,这一技术问题亟待解决。
随着计算机技术的飞速发展,借助计算机视觉和图像处理技术对垃圾进行识别和分类已成为可能。利用计算机技术实现对垃圾的分类处理,首先需要训练分类模型,这就需要采集大量的垃圾图像作为训练数据。在实际应用中,为了确保分类的准确性,所需的训练图像样本往往需要几十万张甚至上百万张。显然,采用人工方式采集大规模的垃圾图像数据并不可行。
近年来,在计算机领域,图像生成技术得到了长足发展。生成式对抗网络GAN(Generative adversarial networks)就是其中的代表。其构造受博弈论中二人零和博弈(即二人的利益之和为零,一方所得正是另一方所失)的启发,可用于图像的自动生成。目前,应用GAN已经实现了对数字、人脸及室内外场景等对象的图像生成,并且生成的图片逼真。因此,利用图像生成的方式获取垃圾图像作为训练样本,可以较好地解决人工采集图像样本过程劳动强大,可操作性差的问题。
然而,不同于普通物体,垃圾图像规范性差,包含的场景信息复杂。测试表明,采用现有的图像生成技术处理垃圾图像时,图片生成过程不稳定,生成的图像失真度较高。生成图片用于训练垃圾分类器时,存在分类精度低,错检率高的问题,无法在实际中应用。
发明内容
为了解决上述技术问题,本发明提供一种采集样本少、工作效率高的可用于垃圾分类的垃圾图像自动生成方法。
本发明解决上述问题的技术方案是:一种可用于垃圾分类的垃圾图像自动生成方法,包括以下步骤:
步骤一:人工采集若干垃圾图像,对所得图像做数据增强和归一化处理,得到原始训练样本集;
步骤二:将原始训练样本集的训练样本数据转换为TFRecord格式;
步骤三:采用深度卷积神经网络构造生成网络;生成网络的构造步骤为:
使用深度卷积神经网络构造生成网络,设置深度卷积神经网络模型层数为11层,包括输入层、卷积层、上采样层和输出层,其中第1层是输入层,第2至10层是卷积层和上采样层,最后一层是输出层,生成网络的输出是一幅32*32大小的图像;
步骤四:采用稀疏自编码深度卷积神经网络构造判别网络;判别网络的构造步骤为:
使用自编码器构造判别网络,设置自编码器中的编码器为12层,包括输入层、卷积层、下采样层、全连接层和输出层,其中第1层是输入层,第2至10层是卷积层和下采样层,第11层是全连接层,最后一层是输出层,其输入是一幅32*32大小的图像,图像大小是32*32,输出的是经过编码解码之后的图像;
使用自编码器构造判别网络,设置自编码器中的解码器为11层,包括输入层、卷积层、上采样层和输出层,其中第1层是输入层,第2至10层是卷积层和上采样层,最后一层是输出层,输出的是一幅图像,图像尺寸是32*32;
步骤五:采用交替迭代优化的方式训练生成网络和判别网络直至模型收敛;具体步骤为:
5-1)引入用于平衡生成网络和判别网络的平衡参数Γ∈[0,1],Γ定义如下:
Γ为生成样本损失期望E[ζ(G(z))]和真实样本损失期望E[ζ(v)]之比,用于衡量生成样本图像的多样性;其中ζ表示自编码器重构误差函数,z是随机向量,G(z)是随机向量经过生成模型G之后生成的图片;v是输入的真实图片;
5-2)设定生成网络G的训练损失函数ζG如下:
ζG=ζ(G(zG))
ζ(G(zG))=||G(zG)-D(G(zG))||
其中,G(zG)是随机向量zG经过生成模型G之后生成的图片;D(G(zG))是生成图片G(zG)经判别网络重构出来的图片,ζ(G(zG))表示随机向量zG经过生成网络生成的图片与该生成图片经判别网络重构出来的图片之间的误差;
5-3)设定判别网络D的训练损失函数ζD如下:
ζD=ζ(v)-k·ζ(G(zD))+σnoise·ζSAE
ζ(v)=||v-D(v)||
k是学习率,表示控制ζ(G(zD))的梯度下降的程度;ζ(v)表示采样而来的真实图片v经过判别网络编码解码之后重构出来的图片D(v)与该真实图片v之间的误差;ζSAE表示稀疏自编码器的损失,σnoise表示稀疏自编码器损失的置信度,设置σnoise=1;
5-4)设对于训练步骤t,初始t=0,更新学习率;
kt+1=kt+λk(Γζ(v)-ζ(G(zG))
kt+1是训练步骤t+1下的学习率;λk是k的比例增益,设置k的学习率为0.0001;
5-5)在平衡参数Γ∈[0,1]范围内,生成模型和判别模型达到纳什均衡;在Γ=0.5时,生成的图片最为真实;
步骤六:建立垃圾图像生成器,生成垃圾图像。
上述可用于垃圾分类的垃圾图像自动生成方法,所述步骤一中,对所得图像的数据增强处理包括对图像进行水平镜像翻转、随机旋转、裁切、缩放操作。
上述可用于垃圾分类的垃圾图像自动生成方法,所述步骤一中,对所得图像的归一化过程采用最大最小标准化方法对原始垃圾图像进行线性化处理,将图像大小限定在一定范围内。
上述可用于垃圾分类的垃圾图像自动生成方法,所述步骤二具体步骤为:
2-1)制作用于训练的TFRecord格式数据:制作TFRecord格式二进制数据,获取训练样本数据,将图片样本序列化为一个字符串,写入到TFRecord文件;
2-2)读取TFRecord格式数据集:读取二进制数据,从文件队列中读入一个序列化的样本,解析符号化的样本,将字符串解析成图像对应的像素素组;
2-3)将图像数组加入队列,启动多线程处理数据。
上述可用于垃圾分类的垃圾图像自动生成方法,所述步骤六的具体步骤为:
6-1)从训练样本中随机选取n个噪声样本;
6-2)分别将噪声样本输入训练好的网络;
6-3)生成n个垃圾图像。
本发明的有益效果在于:本发明引入用于平衡生成网络和判别网络的平衡参数,利用平衡参数来更新学习率,以达到收敛条件,与现有技术相比,只需采集少量垃圾图像样本,即可自动生成大量高逼真度的垃圾图像样本,为垃圾图像识别提供了可用的训练样本图像,较好地解决了人工采集图像样本过程劳动强大、可操作性差、成本昂贵的问题,推动实现对垃圾的自动化、智能化和规模化分捡处理的进程。
附图说明
图1为本发明垃圾图像生成方法的整体流程图。
图2为本发明训练步骤的示意图。
图3为本发明的网络结构图。
图4为本发明使用自编码器构造判别网络的编码过程示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的说明。
如图1-图4所示,一种可用于垃圾分类的垃圾图像自动生成方法,包括以下步骤:
步骤一:人工采集若干垃圾图像,对所得图像做数据增强和归一化处理,得到原始训练样本集。
对所得图像的数据增强处理包括对图像进行水平镜像翻转、随机旋转、裁切、缩放操作。
对所得图像的归一化过程采用最大最小标准化方法对原始垃圾图像进行线性化处理,将图像大小限定在一定范围内。
步骤二:将原始训练样本集的训练样本数据转换为TFRecord格式。具体步骤为:
2-1)制作用于Tensorflow训练的TFRecord格式数据:制作TFRecord格式二进制数据,获取训练样本数据,将图片样本序列化为一个字符串,写入到TFRecord文件;
2-2)读取TFRecord格式数据集:读取二进制数据,从文件队列中读入一个序列化的样本,解析符号化的样本,将字符串解析成图像对应的像素素组;
2-3)将图像数组加入队列,启动多线程处理数据。
步骤三:采用深度卷积神经网络构造生成网络。构造步骤为:
使用深度卷积神经网络构造生成网络,设置深度卷积神经网络模型层数为11层,包括输入层、卷积层、上采样层和输出层,其中第1层是输入层,第2至10层是卷积层和上采样层,最后一层是输出层,输出的是一幅图像,图像尺寸是32*32。
步骤四:采用稀疏自编码深度卷积神经网络构造判别网络。本发明的判别网络包含了两个子网络:编码器和解码器,具体构造的构造步骤为:
使用自编码器构造判别网络,设置自编码器中的编码器为12层,包括输入层、卷积层、下采样层、全连接层和输出层,其中第1层是输入层,第2至10层是卷积层和下采样层,第11层是全连接层,最后一层是输出层,其输入是一幅图像,图像大小是32*32,输出的是经过编码解码之后的图像。
使用自编码器构造判别网络,设置自编码器中的解码器为11层,包括输入层、卷积层、上采样层和输出层,其中第1层是输入层,第2至10层是卷积层和上采样层,最后一层是输出层,输出的是一幅图像,图像尺寸是32*32。
设定判别网络的结构,本发明采用自编码的卷积深度神经网络设计判别网络。Nv=H×W×C是有关真实图像v的尺寸的简写,其中H,W,C分别代表高度,宽度和颜色通道。所使用数据格式为NCHW,使用尺寸大小为3×3的滤波器,在其输出端应用激活函数修正线性单位RELU。下采样层(池化层)滤波器移动步幅2,每次下采样时,卷积滤波器的个数呈线性增加,以此获得垃圾图像的更多特征;上采样在原垃圾图像像素的基础上在像素点间采用最近邻插值法插入新的元素,放大垃圾图像尺寸。在编码器和解码器之间,通过全连接层映射处理自动编码器隐藏的h维数据张量。
生成网络使用与判别网络解码器相同的架构,参数不同。输入噪声是均匀采样的z∈[-1,1]。
步骤五:采用交替迭代优化的方式训练生成网络和判别网络直至模型收敛。具体步骤为:
5-1)引入用于平衡生成网络和判别网络的平衡参数Γ∈[0,1],Γ定义如下:
Γ为生成样本损失期望E[ζ(G(z))]和真实样本损失期望E[ζ(v)]之比,用于衡量生成样本图像的多样性;其中ζ表示自编码器重构误差函数,z是随机向量,G(z)是随机向量经过生成模型G之后生成的图片;v是输入的真实图片;
5-2)设定生成网络G的训练损失函数ζG如下:
ζG=ζ(G(zG))
ζ(G(zG))=||G(zG)-D(G(zG))||
其中,G(zG)是随机向量zG经过生成模型G之后生成的图片;D(G(zG))是该生成图片经判别网络重构出来的图片,ζ(G(zG))表示随机向量zG经过生成网络生成的图片与该生成图片经判别网络重构出来的图片之间的误差;
5-3)设定判别网络D的训练损失函数ζD如下:
ζD=ζ(v)-k·ζ(G(zD))+σnoise·ζSAE
ζ(v)=||v-D(v)||
k是学习率,表示控制ζ(G(zD))的梯度下降的程度;ζ(v)表示采样而来的真实图片v经过判别网络编码解码之后重构出来的图片D(v)与该真实图片v之间的误差;ζSAE表示稀疏自编码器的损失,σnoise表示稀疏自编码器损失的置信度,设置σnoise=1;
5-4)设对于训练步骤t,初始t=0,更新学习率;
kt+1=kt+λk(Γζ(v)-ζ(G(zG))
kt+1是训练步骤t+1下的学习率;λk是k的比例增益,设置k的学习率为0.0001;
5-5)在平衡参数Γ∈[0,1]范围内,生成模型和判别模型达到纳什均衡;在Γ=0.5时,生成的图片最为真实。
步骤六:建立垃圾图像生成器,生成垃圾图像。具体步骤为:
6-1)从训练样本中随机选取n个噪声样本;
6-2)分别将噪声样本输入训练好的网络;
6-3)生成n个垃圾图像。
Claims (5)
1.一种可用于垃圾分类的垃圾图像自动生成方法,包括以下步骤:
步骤一:人工采集若干垃圾图像,对所得图像做数据增强和归一化处理,得到原始训练样本集;
步骤二:将原始训练样本集的训练样本数据转换为TFRecord格式;
步骤三:采用深度卷积神经网络构造生成网络;生成网络的构造步骤为:
使用深度卷积神经网络构造生成网络,设置深度卷积神经网络模型层数为11层,包括输入层、卷积层、上采样层和输出层,其中第1层是输入层,第2至10层是卷积层和上采样层,最后一层是输出层,生成网络的输出是一幅32*32大小的图像;
步骤四:采用稀疏自编码深度卷积神经网络构造判别网络;判别网络的构造步骤为:
使用自编码器构造判别网络,设置自编码器中的编码器为12层,包括输入层、卷积层、下采样层、全连接层和输出层,其中第1层是输入层,第2至10层是卷积层和下采样层,第11层是全连接层,最后一层是输出层,其输入是一幅32*32大小的图像,图像大小是32*32,输出的是经过编码解码之后的图像;
使用自编码器构造判别网络,设置自编码器中的解码器为11层,包括输入层、卷积层、上采样层和输出层,其中第1层是输入层,第2至10层是卷积层和上采样层,最后一层是输出层,输出的是一幅图像,图像尺寸是32*32;
步骤五:采用交替迭代优化的方式训练生成网络和判别网络直至模型收敛;具体步骤为:
5-1)引入用于平衡生成网络和判别网络的平衡参数Γ∈[0,1],Γ定义如下:
Γ为生成样本损失期望E[ζ(G(z))]和真实样本损失期望E[ζ(v)]之比,用于衡量生成样本图像的多样性;其中ζ表示自编码器重构误差函数,z是随机向量,G(z)是随机向量经过生成模型G之后生成的图片;v是输入的真实图片;
5-2)设定生成网络G的训练损失函数ζG如下:
ζG=ζ(G(zG))
ζ(G(zG))=||G(zG)-D(G(zG))||
其中,G(zG)是随机向量zG经过生成模型G之后生成的图片;D(G(zG))是生成图片G(zG)经判别网络重构出来的图片,ζ(G(zG))表示随机向量zG经过生成网络生成的图片与该生成图片经判别网络重构出来的图片之间的误差;
5-3)设定判别网络D的训练损失函数ζD如下:
ζD=ζ(v)-k·ζ(G(zD))+σnoise·ζSAE
ζ(v)=||v-D(v)||
k是学习率,表示控制ζ(G(zD))的梯度下降的程度;ζ(v)表示采样而来的真实图片v经过判别网络编码解码之后重构出来的图片D(v)与该真实图片v之间的误差;ζSAE表示稀疏自编码器的损失,σnoise表示稀疏自编码器损失的置信度,设置σnoise=1;
5-4)设对于训练步骤t,初始t=0,更新学习率;
kt+1=kt+λk(Γζ(v)-ζ(G(zG))
kt+1是训练步骤t+1下的学习率;λk是k的比例增益,设置k的学习率为0.0001;
5-5)在平衡参数Γ∈[0,1]范围内,生成模型和判别模型达到纳什均衡;在Γ=0.5时,生成的图片最为真实;
步骤六:建立垃圾图像生成器,生成垃圾图像。
2.根据权利要求1所述的可用于垃圾分类的垃圾图像自动生成方法,其特征在于:所述步骤一中,对所得图像的数据增强处理包括对图像进行水平镜像翻转、随机旋转、裁切、缩放操作。
3.根据权利要求1所述的可用于垃圾分类的垃圾图像自动生成方法,其特征在于:所述步骤一中,对所得图像的归一化过程采用最大最小标准化方法对原始垃圾图像进行线性化处理,将图像大小限定在一定范围内。
4.根据权利要求1所述的可用于垃圾分类的垃圾图像自动生成方法,其特征在于,所述步骤二具体步骤为:
2-1)制作用于训练的TFRecord格式数据:制作TFRecord格式二进制数据,获取训练样本数据,将图片样本序列化为一个字符串,写入到TFRecord文件;
2-2)读取TFRecord格式数据集:读取二进制数据,从文件队列中读入一个序列化的样本,解析符号化的样本,将字符串解析成图像对应的像素素组;
2-3)将图像数组加入队列,启动多线程处理数据。
5.根据权利要求1所述的可用于垃圾分类的垃圾图像自动生成方法,其特征在于,所述步骤六的具体步骤为:
6-1)从训练样本中随机选取n个噪声样本;
6-2)分别将噪声样本输入训练好的网络;
6-3)生成n个垃圾图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910073616.4A CN109840561A (zh) | 2019-01-25 | 2019-01-25 | 一种可用于垃圾分类的垃圾图像自动生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910073616.4A CN109840561A (zh) | 2019-01-25 | 2019-01-25 | 一种可用于垃圾分类的垃圾图像自动生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109840561A true CN109840561A (zh) | 2019-06-04 |
Family
ID=66884186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910073616.4A Pending CN109840561A (zh) | 2019-01-25 | 2019-01-25 | 一种可用于垃圾分类的垃圾图像自动生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109840561A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110377740A (zh) * | 2019-07-22 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
CN110706308A (zh) * | 2019-09-07 | 2020-01-17 | 创新奇智(成都)科技有限公司 | 一种基于gan的钢卷端面边损人造样本生成方法 |
CN111091059A (zh) * | 2019-11-19 | 2020-05-01 | 佛山市南海区广工大数控装备协同创新研究院 | 一种生活垃圾塑料瓶分类中的数据均衡方法 |
CN112132073A (zh) * | 2020-09-28 | 2020-12-25 | 中国银行股份有限公司 | 垃圾分类方法及装置、存储介质及电子设备 |
CN113378703A (zh) * | 2021-06-09 | 2021-09-10 | 成都恒创新星科技有限公司 | 一种检测垃圾桶状态的方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN108197525A (zh) * | 2017-11-20 | 2018-06-22 | 中国科学院自动化研究所 | 人脸图像生成方法及装置 |
-
2019
- 2019-01-25 CN CN201910073616.4A patent/CN109840561A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN108197525A (zh) * | 2017-11-20 | 2018-06-22 | 中国科学院自动化研究所 | 人脸图像生成方法及装置 |
Non-Patent Citations (3)
Title |
---|
DAVID BERTHELOT 等: "BEGAN:Boundary Equilibrium Generative Adversarial Networks", 《ARXIV:1703.10717V4》 * |
张博208: "BEGAN解读", 《BLOG.CSDN.NET/BBBEOY/ARTICLE/DETAILS/82147468》 * |
王海文等: "一种基于生成式对抗网络的图像数据扩充方法", 《计算机技术与发展》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110377740A (zh) * | 2019-07-22 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
CN110377740B (zh) * | 2019-07-22 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
CN110706308A (zh) * | 2019-09-07 | 2020-01-17 | 创新奇智(成都)科技有限公司 | 一种基于gan的钢卷端面边损人造样本生成方法 |
CN110706308B (zh) * | 2019-09-07 | 2020-09-25 | 创新奇智(成都)科技有限公司 | 一种基于gan的钢卷端面边损人造样本生成方法 |
CN111091059A (zh) * | 2019-11-19 | 2020-05-01 | 佛山市南海区广工大数控装备协同创新研究院 | 一种生活垃圾塑料瓶分类中的数据均衡方法 |
CN112132073A (zh) * | 2020-09-28 | 2020-12-25 | 中国银行股份有限公司 | 垃圾分类方法及装置、存储介质及电子设备 |
CN112132073B (zh) * | 2020-09-28 | 2024-03-29 | 中国银行股份有限公司 | 垃圾分类方法及装置、存储介质及电子设备 |
CN113378703A (zh) * | 2021-06-09 | 2021-09-10 | 成都恒创新星科技有限公司 | 一种检测垃圾桶状态的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109840561A (zh) | 一种可用于垃圾分类的垃圾图像自动生成方法 | |
CN110647874B (zh) | 一种端到端的血细胞识别模型构造方法及应用 | |
CN108596046A (zh) | 一种基于深度学习的细胞检测计数方法及系统 | |
CN109544442A (zh) | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 | |
CN110084285A (zh) | 基于深度学习的鱼类细粒度分类方法 | |
CN107480723B (zh) | 基于局部二进制阈值学习网络的纹理识别方法 | |
CN110728666B (zh) | 基于数字病理玻片进行慢性鼻窦炎的分型方法及其系统 | |
CN110059765B (zh) | 一种矿物智能识别分类系统与方法 | |
CN106980817A (zh) | 一种基于Caffe框架的恐怖视频识别方法 | |
CN117237559B (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
CN114998360A (zh) | 一种基于SUnet算法的脂肪细胞祖细胞分割方法 | |
CN114419619A (zh) | 红细胞检测分类方法、装置、计算机存储介质及电子设备 | |
CN112200264B (zh) | 基于散射复用的高通量免成像分类方法与装置 | |
CN109344309A (zh) | 基于卷积神经网络堆叠泛化的文档图像分类方法和系统 | |
CN115471901B (zh) | 基于生成对抗网络的多姿态人脸正面化方法及系统 | |
CN116758451A (zh) | 基于多尺度和全局交叉注意力的视听情感识别方法及系统 | |
CN108595593B (zh) | 基于主题模型的会议研究热点与发展趋势信息分析方法 | |
KR102117908B1 (ko) | 기계학습 모델링을 위한 신규 학습 콘텐츠 분석 방법, 장치 및 컴퓨터 프로그램 | |
CN115357220A (zh) | 一种面向工业app开发的群智化需求获取方法 | |
CN116246158A (zh) | 一种适用于遥感目标检测任务的自监督预训练方法 | |
CN114708463A (zh) | 一种岩石标本图像智能识别方法 | |
CN112200275B (zh) | 人工神经网络的量化方法及装置 | |
CN112164040A (zh) | 基于半监督深度学习算法的钢铁表面缺陷识别方法 | |
CN112907475B (zh) | 一种冰晶图片的自动分割方法 | |
CN116421152B (zh) | 一种睡眠分期结果确定方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190604 |
|
RJ01 | Rejection of invention patent application after publication |