CN112215868A - 基于生成对抗网络的去除手势图像背景的方法 - Google Patents
基于生成对抗网络的去除手势图像背景的方法 Download PDFInfo
- Publication number
- CN112215868A CN112215868A CN202010984112.0A CN202010984112A CN112215868A CN 112215868 A CN112215868 A CN 112215868A CN 202010984112 A CN202010984112 A CN 202010984112A CN 112215868 A CN112215868 A CN 112215868A
- Authority
- CN
- China
- Prior art keywords
- model
- background
- picture
- training
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000004913 activation Effects 0.000 claims abstract description 14
- 238000010606 normalization Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 43
- 238000005457 optimization Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000003042 antagnostic effect Effects 0.000 claims description 2
- 238000012067 mathematical method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000013459 approach Methods 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
基于生成对抗网络的去除手势图像背景的方法,包括如下几个步骤:步骤一:模型建立:包括建立生成对抗网络模型、定义关于模型目标函数、引入批量归一化层、引入线性整流函数激活函数和引入Dropout层;步骤二:模型训练,步骤三:模型使用,包括预处理、归一化和调用模型,最终得到的输出即为不带背景的手势图像。本发明具有高效、准确、快速、易部署等特点。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及基于生成对抗网络的去除手势图像背景的方法。
背景技术
对含有手势的图像进行背景移除任务时,当前主流方法是图像语义分割。然而目前该方法存在的一个问题是效率低,难以处理精细化的图像背景移除任务。
2014年FCN(Fully Convolutional Networks for Semantic Segmentation)开启了图像分割的新篇章,在原来简单的VGG,AlexNet神经网络方法上采用了上采样,采用跳跃连接,可以实现对图像语义的分割。后续研究者主要的工作是对网络的更改,对一些特定任务引入注意力机制。但是这些工作也存在一些问题:例如,丢失边缘信息、粒度不够精细等,如图1所示。为实现更为精细化的抠图任务,同时不丢失重要的边缘信息,则需要依赖更为复杂的卷积神经网络和更大的训练开销。
发明内容
为了克服上述现有方法的不足,本发明的目的在于提供基于生成对抗网络的去除手势图像背景的方法,具有高效、准确、快速、易部署等特点。为实现上述目的,本发明采取以下技术方案:基于生成对抗网络的去除手势图像背景的方法,其主要包括如下几个步骤:
步骤一:模型建立
步骤1.1建立生成对抗网络模型,条件GAN网络包括两个模块,分别为生成器G和判别器D,其中生成器G训练的目标是让生成图像以假乱真,判别器D训练目标是检测生成器G生成的假图像;
步骤1.2定义关于模型目标函数,损失函数是决定模型训练优化的目标的数学方法,在生成对抗网络中,随机噪声向量z到输出图片y的映射关系,即G:z→y,条件生成对抗网络将输入图像x和随机噪声向量z到输出图像y的映射关系,即CG:(x,z)→y;
该式中,x是带背景图片,y是生成器G生成的图片,z是引入的随机噪声图片向量;
需要通过训练,让生成器G使得这个目标函数尽可能小,而判别器D想尽可能使得这个目标函数大,即训练优化的方式为式:
然而生成器G的任务不仅是欺骗鉴别器,而且还要使它接近真正意义上的无背景真实输出,所以修正后的目标函数为式
其中Lz1(G)=Ex,y,z[||y-G(x,z)||1],目标是为了让生成器的输出接近真正意义上的无背景的真实输出,而λ是一介于0-1之间的系数,用于平衡图像的质量;
步骤1.3引入批量归一化层:
模型中需要使用到批量归一化(Batch normalization,BN)层,其中,BN层的操作主要是对卷积层的输出进行标准化,计算形式如式(5)所示:
关于公式的定义:μB是当前卷积核上平均值,σB是当前卷积核内所有像素值的方差xi是当前的像素矩阵的值,是归一化的输出值,M是卷积核的大小,i是从1遍历到M的数值,∑是求和符号,←是把当前元素进行赋值;xi是批量归一化层的输入。
公式5中的μB,σB是由公式67决定,xi是当前层的输入,也是上一层的输出。
步骤1.4引入线性整流函数激活函数
模型中需要使用的神经网络需要激活函数,其中采用leaky线性整流函数(leakyRectified Linear Unit,leaky Relu)激活函数,主要来解决传统Relu激活函数的梯度消失的问题,其计算方式如式
y=max(0,x)+leaky*min(0,x) (9)
其中max是一个求最大值的函数,x是Dropout层的输出,也是激活函数的输入,y是经激活函数处理的输出,不是带G所生成的背景图片,leaky是一个0-1的系数,min是求最小值的函数。
步骤1.5引入Dropout层
Dropout层输入的像素值进行随机丢弃部分像素值,然后输入到下一层,Dropout层参数设置为0.2,即随机丢弃20%的像素点;
步骤一中各个步骤关系:步骤1.1定义了模型结构,步骤1.2给出模型训练的目标函数,步骤1.3,1.4,1.5分别给出引入的几个特殊的层的数据计算方法。
步骤二:模型训练
在步骤一中完成了模型建立,给出了模型训练用到的目标函数用于训练出最优的模型,其中目标函数中为x是带背景图片,y是生成器G生成的图片,z是引入的随机噪声图片向量,利用上述给出的目标函数进行训练,其中主要的过程如下所示:
2.1用到的训练参数
Batchsize:每一次训练用多少张图片;设置为1-10(为了节省计算资源),可以根据计算机显存进行调整;
学习率:模型训练时参数更新的速率;设置为0.001;
迭代次数:对所有数据迭代多少次;设置为大于100000
优化器方法:如何对训练过程进行优化;选择(动量)优化器,参数设置为0.8;
训练完可以得到生成器G和判别器D,将生成器保存为模型文件,下一步执行去除图片背景需要用到这个文件;
步骤一为步骤二提供模型训练的基础,模型一中建立了生成器和判别器的具体模型,训练的具体方法:对于输入的带背景图片,G对其加入噪声,然后得到G输出的图片y,把G输出的图片,和输入的图片x给D来判别,并告诉D是否y中含有背景。其中是对判别器做最大值优化,即要让D的判别能力最大,能够准确判别y是否带背景,是对生成器做最小值优化,即让判别器输出的图片和真实的不带背景的图片之间的差异尽可能地小。
步骤三:模型使用(去除手势背景)
3.1.1预处理:改变图像大小:对于获取带背景的图片,将其利用开源计算机视觉库(Open Source Computer Vision Library,Opencv),改变图片大小,让其与步骤1.1中所建立模型大小一致(备注:输入大小可以根据场景自行定义);
3.1.2归一化:由于模型只能对归一化后的像素值进行处理,所以这里需要把整型的像素值变成0-1之间的浮点型值,具体做法是用当前的像素值(0-255之间的值)除以255;
3.2调用模型:读入步骤二训练好之后保存的模型,然后将上述预处理好的图像作为模型的输入,得到的输出即为不带背景的手势图像。
本发明的有益效果:
1、提出了高效的去除手势背景方法,可以用于和手势图像处理的相关工作,例如基于手势的人机交互,手势识别,手势认证等等场景。
2、为图像去背景(抠图)提供方法上的指导,而不再是图像语义分割。
3、本方法是对GAN的进一步扩展应用,相比于传统的图像背景去除方法,本发明具有准确,可靠且稳定的效果。
附图说明
图1不同文献中的抠图任务对比。
图2模型总体结构示意图。
图3判别器网络结构示意图。
图4生成器网络结构示意图。
图5迭代训练100次结果示意图。
图6迭代训练800000次结果示意图。
图7不同训练次数下,网络的训练损失变化示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
包括先建立一个基于生成对抗网络(Generative adversary network,GAN)去除手势背景的模型,然后利用收集到的数据来训练模型,然后使用训练好的模型来执行手势背景去除任务。
生成对抗网络(Generative Adversarial Network,GAN)是一种深度学习模型,它可以学到从随机噪声向量z到输出图片y的映射关系,即G:z→y。条件生成对抗网络(CGAN)是对原始GAN的一个扩展,它可以学习从输入图像x和随机噪声向量z到输出图像y的映射关系,即CG:(x,z)→y。
和GAN一样,条件GAN网络也有两个模块,一个是生成器G,另一个是判别器D。G训练的目标是让生成图像以假乱真,D的训练目标是检测G生成的假图像,具体的训练过程如图2。
本文中判别器网络如图3所示,该网络的核心是两个卷积块,这两个卷积块的结构是卷积->池化->BN->Dropout->LeakyRelu形式。同时该网络没有用Softmax作为网络的最后一层来识别图片是否带背景,而是使用卷积,其核心思想在于:对输出的每一个小卷积块进行加权,也即利用卷积核对每个卷积块的规模加上惩罚。然后这个判别器对一个图像中的每个N*N个小卷积块是真是假进行分类。该模型将卷积输出的平均值来提供最终的判别器输出。判别器的输入由两个图像,分别是需要移除背景的输入图片,和生成器生成的目标图片,这两张图片进行拼接后输入到模型中。
在GAN中,典型的生成器有两种网络结构,分别是编码-解码网络和‘U-net’。‘U-net’引入了跳跃连接,在不同层之间传递大量的低级别信息(例如图片边缘等等),本文采用的生成器网络结构是基于‘U-net’的形式,网络结构具体如图4所示。其中卷积块5、6、7、8都是反卷积形式,其结构和卷积块4、3、2、1呈现对称形式,同时还引入跳跃连接方式,这样可以让训练时更新的网络参数更加均匀,而不再是集中某些参数,注意这里不能使用Dropout层,主要是因为该层的引入无法对丢失的神经元进行恢复,会导致输出图像和输入图像的分辨率不一致,而且生成器的图像生成稳定性也会严重降低。
首先本文给出了不同迭代训练次数的针对手势图片移除背景的效果。图5是迭代100次的训练效果,图6是迭代800000次的训练效果,可以发现,生成器在不断训练下,图片背景移除效果有明显提升。当训练100次时,可以发现生成器网络对边缘能有很好的拟合能力,但是在细粒度上,却表现出很差,这主要可能是在训练次数比较少的情况下,生成器网络的神经元优先获取了如何识别边缘信息,图像的细粒度信息的处理还依赖于更多次的训练。
本文同时给出了在不同训练次数下的损失变化情况,如图7所示。其中判别器的损失越来越小,尤其是在第800-900次训练下损失下降明显,说明判别器在识别带背景图片与不带背景图片的能力在此得到强大提升。同样地,生成器的损失不断提升,这说明在不断地迭代下,输入带背景图片与输出带背景图片差异越来越大,说明背景被移除得越来越多所导致两张输入与输出的差异越来越大。L1损失比较的是生成器输出的图片与手动处理的真实不带背景图片的差异,可以发现,刚开始时由于生成器效果比较差,导致其输出的图片与真实不带背景图相差甚远,所以刚开始时损失比较大,但是在不断训练下,损失不断收敛,效果也就不断提升。
Claims (4)
1.基于生成对抗网络的去除手势图像背景的方法,其特征在于,包括如下几个步骤:
步骤一:模型建立:
步骤1.1建立生成对抗网络模型;
步骤1.2定义关于模型目标函数;
步骤1.3引入批量归一化层;
步骤1.4引入线性整流函数激活函数和步骤1.5引入Dropout层;
步骤二:模型训练
步骤三.模型使用(去除手势背景)
3.1.1预处理;
3.1.2归一化;
3.2调用模型,最终得到的输出即为不带背景的手势图像。
2.根据权利要求1所述的基于生成对抗网络的去除手势图像背景的方法,其特征在于,
所述的步骤一包括:
步骤1.1建立生成对抗网络模型,条件GAN网络包括两个模块,分别为生成器G和判别器D,其中生成器G训练的目标是让生成图像以假乱真,判别器D训练目标是检测生成器G生成的假图像;
步骤1.2定义关于模型目标函数,损失函数是决定模型训练优化的目标的数学方法,在生成对抗网络中,随机噪声向量z到输出图片y的映射关系,即G:z→y,条件生成对抗网络将输入图像x和随机噪声向量z到输出图像y的映射关系,即CG:(x,z)→y;
该式中,x是带背景图片,y是生成器G生成的图片,z是引入的随机噪声图片向量;
需要通过训练,让生成器G使得这个目标函数尽可能小,而判别器D想尽可能使得这个目标函数大,即训练优化的方式为式:
然而生成器G的任务不仅是欺骗鉴别器,而且还要使它接近真正意义上的无背景真实输出,所以修正后的目标函数为式
步骤1.3引入批量归一化层:
模型中需要使用到批量归一化层,其中,BN层的操作主要是对卷积层的输出进行标准化,计算形式如式(5)所示:其中μB处理如式(6)所示,σB的计算处理如式(7)所示,是为了防止分母为0而引入的无穷小值,xi是当前层的输入;
关于公式的定义:μB是当前卷积核上平均值,σB是当前卷积核内所有像素值的方差xi是当前的像素矩阵的值,是归一化的输出值,M是卷积核的大小,i是从1遍历到M的数值,∑是求和符号,←是把当前元素进行赋值;xi是批量归一化层的输入;
公式5中的μB,σB是由公式67决定,xi是当前层的输入,也是上一层的输出;
步骤1.4引入线性整流函数激活函数:
模型中需要使用的神经网络需要激活函数,其中采用leaky线性整流函数激活函数,主要来解决传统Relu激活函数的梯度消失的问题,其计算方式如式
y=max(0,x)+leaky*min(0,x)
(9)
其中max是一个求最大值的函数,x是Dropout层的输出,也是激活函数的输入,y是经激活函数处理的输出,不是带G所生成的背景图片,leaky是一个0-1的系数,min是求最小值的函数;
步骤1.5引入Dropout层
Dropout层输入的像素值进行随机丢弃部分像素值,然后输入到下一层,Dropout层参数设置为0.2,即随机丢弃20%的像素点。
3.根据权利要求1所述的基于生成对抗网络的去除手势图像背景的方法,其特征在于,所述的步骤二包括:
在步骤一中完成了模型建立,给出了模型训练用到的目标函数用于训练出最优的模型,其中目标函数中为x是带背景图片,y是生成器G生成的图片,z是引入的随机噪声图片向量,利用上述给出的目标函数进行训练,其中主要的过程主要如下所示;
2.1用到的训练参数:
Batchsize:每一次训练用多少张图片;设置为1-10(为了节省计算资源),可以根据计算机显存进行调整;
学习率:模型训练时参数更新的速率;设置为0.001;
迭代次数:对所有数据迭代多少次;设置为大于100000;
优化器方法:如何对训练过程进行优化;选择(动量)优化器,参数设置为0.8;
训练完可以得到生成器G和判别器D,将生成器保存为模型文件,下一步执行去除图片背景需要用到这个文件;
4.根据权利要求1所述的基于生成对抗网络的去除手势图像背景的方法,其特征在于,所述的步骤三模型使用包括:
3.1.1预处理:改变图像大小:对于获取带背景的图片,将其利用开源计算机视觉库,改变图片大小,让其与步骤1.1中所建立模型大小一致;
3.1.2归一化:由于模型只能对归一化后的像素值进行处理,所以这里需要把整型的像素值变成0-1之间的浮点型值,具体做法是用当前的像素值(0-255之间的值)除以255;
3.2调用模型:读入步骤二训练好之后保存的模型,然后将上述预处理好的图像作为模型的输入,得到的输出即为不带背景的手势图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010984112.0A CN112215868B (zh) | 2020-09-10 | 2020-09-10 | 基于生成对抗网络的去除手势图像背景的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010984112.0A CN112215868B (zh) | 2020-09-10 | 2020-09-10 | 基于生成对抗网络的去除手势图像背景的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112215868A true CN112215868A (zh) | 2021-01-12 |
CN112215868B CN112215868B (zh) | 2023-12-26 |
Family
ID=74050433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010984112.0A Active CN112215868B (zh) | 2020-09-10 | 2020-09-10 | 基于生成对抗网络的去除手势图像背景的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112215868B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114499712A (zh) * | 2021-12-22 | 2022-05-13 | 天翼云科技有限公司 | 一种手势识别方法、设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN107944551A (zh) * | 2017-12-15 | 2018-04-20 | 福州大学 | 一种用于电润湿显示屏缺陷识别方法 |
US20190197358A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Generative Adversarial Network Medical Image Generation for Training of a Classifier |
CN110263192A (zh) * | 2019-06-06 | 2019-09-20 | 西安交通大学 | 一种基于条件生成对抗网络的磨粒形貌数据库创建方法 |
CN110473154A (zh) * | 2019-07-31 | 2019-11-19 | 西安理工大学 | 一种基于生成对抗网络的图像去噪方法 |
WO2019238560A1 (en) * | 2018-06-12 | 2019-12-19 | Tomtom Global Content B.V. | Generative adversarial networks for image segmentation |
CN110688898A (zh) * | 2019-08-26 | 2020-01-14 | 东华大学 | 基于时空双流卷积神经网络的跨视角步态识别方法 |
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
CN110930418A (zh) * | 2019-11-27 | 2020-03-27 | 江西理工大学 | 融合W-net和条件生成对抗网络的视网膜血管分割方法 |
US20200134804A1 (en) * | 2018-10-26 | 2020-04-30 | Nec Laboratories America, Inc. | Fully convolutional transformer based generative adversarial networks |
US20200242774A1 (en) * | 2019-01-25 | 2020-07-30 | Nvidia Corporation | Semantic image synthesis for generating substantially photorealistic images using neural networks |
CN111488952A (zh) * | 2020-06-28 | 2020-08-04 | 浙江大学 | 一种适用于轮毂自动化识别的深度残差模型构建方法 |
CN111563841A (zh) * | 2019-11-13 | 2020-08-21 | 南京信息工程大学 | 一种基于生成对抗网络的高分辨率图像生成方法 |
-
2020
- 2020-09-10 CN CN202010984112.0A patent/CN112215868B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN107944551A (zh) * | 2017-12-15 | 2018-04-20 | 福州大学 | 一种用于电润湿显示屏缺陷识别方法 |
US20190197358A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Generative Adversarial Network Medical Image Generation for Training of a Classifier |
WO2019238560A1 (en) * | 2018-06-12 | 2019-12-19 | Tomtom Global Content B.V. | Generative adversarial networks for image segmentation |
US20200134804A1 (en) * | 2018-10-26 | 2020-04-30 | Nec Laboratories America, Inc. | Fully convolutional transformer based generative adversarial networks |
US20200242774A1 (en) * | 2019-01-25 | 2020-07-30 | Nvidia Corporation | Semantic image synthesis for generating substantially photorealistic images using neural networks |
CN110263192A (zh) * | 2019-06-06 | 2019-09-20 | 西安交通大学 | 一种基于条件生成对抗网络的磨粒形貌数据库创建方法 |
CN110473154A (zh) * | 2019-07-31 | 2019-11-19 | 西安理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN110688898A (zh) * | 2019-08-26 | 2020-01-14 | 东华大学 | 基于时空双流卷积神经网络的跨视角步态识别方法 |
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
CN111563841A (zh) * | 2019-11-13 | 2020-08-21 | 南京信息工程大学 | 一种基于生成对抗网络的高分辨率图像生成方法 |
CN110930418A (zh) * | 2019-11-27 | 2020-03-27 | 江西理工大学 | 融合W-net和条件生成对抗网络的视网膜血管分割方法 |
CN111488952A (zh) * | 2020-06-28 | 2020-08-04 | 浙江大学 | 一种适用于轮毂自动化识别的深度残差模型构建方法 |
Non-Patent Citations (2)
Title |
---|
王庆飞等: "基于条件生成对抗网络的手势图像背景去除方法", 《计算机应用研究》, vol. 37, pages 401 - 402 * |
蒋芸等: "基于条件生成对抗网络的咬翼片图像分割", 计算机工程, vol. 45, no. 4, pages 223 - 227 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114499712A (zh) * | 2021-12-22 | 2022-05-13 | 天翼云科技有限公司 | 一种手势识别方法、设备及存储介质 |
CN114499712B (zh) * | 2021-12-22 | 2024-01-05 | 天翼云科技有限公司 | 一种手势识别方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112215868B (zh) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639692B (zh) | 一种基于注意力机制的阴影检测方法 | |
CN109543502B (zh) | 一种基于深度多尺度神经网络的语义分割方法 | |
CN110110624B (zh) | 一种基于DenseNet网络与帧差法特征输入的人体行为识别方法 | |
CN109902806B (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN113313657B (zh) | 一种用于低光照图像增强的非监督学习方法和系统 | |
CN112150493B (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN109948692B (zh) | 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法 | |
CN112580521B (zh) | 一种基于maml元学习算法的多特征真假视频检测方法 | |
CN112149500B (zh) | 一种部分遮挡的人脸识别小样本学习方法 | |
CN112084895B (zh) | 一种基于深度学习的行人重识别方法 | |
CN115565043A (zh) | 结合多表征特征以及目标预测法进行目标检测的方法 | |
CN116030396A (zh) | 一种用于视频结构化提取的精确分割方法 | |
CN114202473A (zh) | 一种基于多尺度特征和注意力机制的图像复原方法及装置 | |
CN113902095A (zh) | 一种无线通信自动调制识别方法、装置与系统 | |
CN112215868A (zh) | 基于生成对抗网络的去除手势图像背景的方法 | |
CN113096133A (zh) | 一种基于注意力机制的语义分割网络的构建方法 | |
JP2011170890A (ja) | 顔検出方法および装置並びにプログラム | |
CN112348762A (zh) | 一种基于多尺度融合生成对抗网络的单幅图像去雨方法 | |
CN114333062B (zh) | 基于异构双网络和特征一致性的行人重识别模型训练方法 | |
CN113343924B (zh) | 一种基于循环谱特征和生成对抗网络的调制信号识别方法 | |
CN112487927B (zh) | 一种基于物体关联注意力的室内场景识别实现方法及系统 | |
CN114764593A (zh) | 一种模型训练方法、模型训练装置及电子设备 | |
CN114283087A (zh) | 一种图像去噪方法及相关设备 | |
CN111754459A (zh) | 基于统计深度特征的染色伪造图像检测方法及电子装置 | |
Zhang et al. | A modified image processing method for deblurring based on GAN networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |