CN110008846A - 一种图像处理方法 - Google Patents
一种图像处理方法 Download PDFInfo
- Publication number
- CN110008846A CN110008846A CN201910186966.1A CN201910186966A CN110008846A CN 110008846 A CN110008846 A CN 110008846A CN 201910186966 A CN201910186966 A CN 201910186966A CN 110008846 A CN110008846 A CN 110008846A
- Authority
- CN
- China
- Prior art keywords
- processing feature
- mask
- composograph
- image
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
本发明公开了图像处理技术领域的一种图像转化处理方法,旨在解决现有技术中基于循环生成式对抗网络的图像处理方法在对图像局部特征迁移过程中,往往不能聚焦于局部特征和存在条纹状噪声,容易出现图片整体颜色改变的技术问题。所述方法包括如下步骤:采集包含处理特征的真实图像和不包含处理特征的真实图像,构建训练样本;将训练样本输入至循环生成式对抗网络中,以预构建的损失函数最小为目标训练所述循环生成式对抗网络,所述损失函数包括全变分正则化损失函数;采用训练好的循环生成式对抗网络对待处理图像进行处理。
Description
技术领域
本发明涉及一种图像处理方法,属于图像处理技术领域。
背景技术
近年来,随着人工智能的高速发展,深度学习也成为了热门研究领域,尤其是生成式对抗网络的提出加速了深度学习的进程。生成式对抗网络包含一个生成器和一个判别器,生成器能够通过真实数据的潜在分布进行学习,并生成假的数据分布来拟合逼近真实数据;判别器是一个分类器,能够判断数据分布是否为真。通过不断竞争学习,生成器能够生成越来越逼真的假的数据分布,最终达到以假乱真的效果。
循环生成式对抗网络是将生成式对抗网络与图到图转换的结合,其本质上是两个镜像对称的生成式对抗网络,构成了一个环形网络。两个生成式对抗网络共享两个生成器和两个判别器。循环生成式对抗网络适合处理图片风格迁移,但是应用在类似于人脸去除眼镜这种图片局部特征迁移的过程中,往往不能聚焦于局部特征和存在条纹状噪声的问题,容易出现图片整体颜色的改变,即人脸去除眼镜之后可能出现脸部其他区域的变化。
发明内容
本发明的目的在于提供一种图像处理方法,以克服现有技术中存在的上述缺陷或缺陷之一。
为达到上述目的,本发明是采用下述技术方案实现的:
一种图像处理方法,包括如下步骤:采集包含处理特征的真实图像和不包含处理特征的真实图像,构建训练样本;将训练样本输入至循环生成式对抗网络中,以预构建的损失函数最小为目标训练所述循环生成式对抗网络,所述损失函数包括全变分正则化损失函数;采用训练好的循环生成式对抗网络对待处理图像进行处理。
进一步,所述循环生成式对抗网络的训练方法包括如下步骤:采用循环生成式对抗网络的第二判别器计算输入训练样本包含处理特征的概率,获取包含处理特征的真实图像;采用循环生成式对抗网络的第一生成器生成包含处理特征的真实图像的颜色注意力图和掩码注意力图,再将包含处理特征的真实图像和与其对应的颜色注意力图、掩码注意力图合成,通过循环生成式对抗网络的第一判别器判别获取不包含处理特征的第一合成图像;采用循环生成式对抗网络的第二生成器生成第一合成图像的颜色注意力图和掩码注意力图,再将第一合成图像和与其对应的颜色注意力图、掩码注意力图合成为包含处理特征的第二合成图像;采用循环生成式对抗网络的第一判别器计算输入训练样本包含处理特征的概率,获取不包含处理特征的真实图像;采用循环生成式对抗网络的第二生成器生成不包含处理特征的真实图像的颜色注意力图和掩码注意力图,再将不包含处理特征的真实图像和与其对应的颜色注意力图、掩码注意力图合成,通过循环生成式对抗网络的第二判别器判别获取包含处理特征的第三合成图像;采用循环生成式对抗网络的第一生成器生成第三合成图像的颜色注意力图和掩码注意力图,再将第三合成图像和与其对应的颜色注意力图、掩码注意力图合成为不包含处理特征的第四合成图像;根据包含处理特征的真实图像、第二合成图像、不包含处理特征的真实图像和第四合成图像计算损失函数,以所述损失函数最小为目的,调整第二生成器、第一生成器、第二判别器和第一判别器。
进一步,所述第一合成图像、第二合成图像、第三合成图像和或第四合成图像的生成方法包括:将输入图像对应的颜色注意力图和掩码注意力图逐点相乘,得到图像改变区域值;将掩码注意力图反转并与输入图像逐点相乘,得到图像不变区域值;将图像改变区域值与图像不变区域值进行逐点相加,得到合成图片;与第一合成图像、第二合成图像、第三合成图像、第四合成图像相对应的,所述输入图像分别指:包含处理特征的真实图像、第一合成图像、不包含处理特征的真实图像、第三合成图像。
进一步,所述损失函数如下:
L(G,F,Dx,Dy)=LGAN(F,Dy,X,Y)+LGAN(G,Dx,Y,X)+λLcyc(G,F,X,Y)+βLTV(A)
其中,
式中,G为第一生成器,F为第二生成器,Dx为第一判别器,Dy为第二判别器;
X为不包含处理特征的真实图像训练样本集合,Y为包含处理特征的真实图像训练样本集合,x为不包含处理特征的真实图像,y为包含处理特征的真实图像,x'为y经第一生成器G生成的不包含处理特征的合成图像,y'为x经第一生成器G生成的包含处理特征的合成图像,y”为x'经第二生成器F生成的包含处理特征的合成图像,x”为y'经第二生成器F生成的不包含处理特征的合成图像;
||||1为1范数函数;||||2为2范数函数;
A为第一生成器G或第二生成器F生成的掩码注意力图,h为掩码注意力图的高度,w为掩码注意力图的宽度;
Ai,j为掩码注意力图的第i行j列的值,Ai+1,j为掩码注意力图的第i+1行j列的值,Ai,j+1为为掩码注意力图的第i行j+1列的值,||A||2为掩码注意力图的2范数;
AG(y)为y经过G得到的掩码注意力图,AG(y')为y'经过G得到的掩码注意力图,AF(x)为x经过F得到的掩码注意力图,AF(x')为x'经过F得到的掩码注意力图;
CG(y)为y经过G得到的颜色注意力图,CG(y')为y'经过G得到的颜色注意力图,CF(x)为x经过F得到的颜色注意力图,CF(x')为x'经过F得到的颜色注意力图;
Dy(y)为第二判别器Dy判断输入图像y是否为y,Dy(y')为第二判别器Dy判断输入图像y'是否为y,Dx(x)为第一判别器Dx判断输入图像x是否为x,Dx(x')为第一判别器Dx判断输入图像x'是否为x;
E[]为期望函数,y~Pdata(Y)表示从包含处理特征的真实图像训练样本集合Y中随机选择一个包含处理特征的真实图像y,x~Pdata(X)表示从不包含处理特征的真实图像训练样本集合X中随机选择一个不包含处理特征的真实图像x;
L(G,F,Dx,Dy)为循环生成式对抗网络的损失函数;
LGAN(F,Dy,X,Y)为循环生成式对抗网络中第二生成器F和第二判别器Dy的极大极小化损失函数;
LGAN(G,Dx,Y,X)为循环生成式对抗网络中第一生成器G和第一判别器Dx的极大极小化损失函数;
Lcyc(G,F,X,Y)为循环生成式对抗网络的循环一致损失函数;
LTV(A)为循环生成式对抗网络的全变分差损失函数;
λ、β为超参数,为逐点相乘。
进一步,所述图像包括人脸图像,所述处理特征包括眼镜、耳饰、帽子或头饰。
进一步,所述方法还包括对训练样本进行预处理,所述预处理的方法包括如下步骤:将训练样本的像素值与设定阈值相比较,剔除训练样本中像素值低于设定阈值的图像;采用检测算法进行关键点检测;根据检测获取的关键点进行图像裁剪获取目标图像,完成训练样本预处理。
与现有技术相比,本发明所达到的有益效果:通过构建基于全变分正则化的循环生成式对抗网络进行训练,有效解决了图像局部特征迁移过程中不能聚焦于局部特征和存在条纹状噪声,容易出现图片整体颜色改变的技术问题。
附图说明
图1是本发明具体实施方式提供的一种图像处理方法中人脸去眼镜的工作流程图;
图2是本发明具体实施方式提供的一种图像处理方法中人脸戴眼镜的工作流程图;
图3是本发明具体实施方式提供的一种图像处理方法中生成器的结构示意图;
图4是本发明具体实施方式提供的一种图像处理方法中判别器的结构示意图;
图5是本发明具体实施方式提供的一种图像处理方法中卷积注意力模块的结构图;
图6是本发明具体实施方式提供的一种图像处理方法中卷积注意力模块的通道注意力模块的结构示意图;
图7是本发明具体实施方式提供的一种图像处理方法中卷积注意力模块的空间注意力模块的结构示意图。
具体实施方式
一种图像处理方法,包括如下步骤:
步骤一:设定拟处理目标图像为人脸图像、拟处理特征为眼镜,登录图片网站,采集人脸戴眼镜图片和人脸无眼镜图片各2000张。
步骤二:对采集到的图片进行预处理。首先,去除模糊以及内容不符的图片;然后,用基于卷积神经网络的级联多任务的人脸检测算法(MTCNN)得到人脸五个关键点,并根据关键点将照片统一裁剪为128×128像素尺寸;最后,区分为人脸戴眼镜图片和人脸无眼镜图片两类,各自保存为训练样本。
步骤三:将预处理过的训练样本输入循环生成式对抗网络中训练。所述循环生成式对抗网络包括第一生成器、第二生成器、第一判别器和第二判别器。
如图3所示,是本发明具体实施方式提供的一种图像处理方法中生成器的结构示意图,所述生成器包括卷积层、反卷积层、残差网络块和卷积注意力模块。
如图4所示,是本发明具体实施方式提供的一种图像处理方法中判别器的结构示意图,所述判别器包括卷积层和卷积注意力模块。
卷积层通过卷积操作提取图片的特征信息,所提取图片特征信息的抽象性与卷积操作层级成正比,多层的卷积层叠加起到编码器的作用,用以提取高纬信息;多层的反卷积层叠加起到解码器的作用,从特征向量中还原出低级特征;残差网络块能够将底层特征传递至高层,并且抑制梯度消失的情况。
如图5至7所示,是本发明具体实施方式提供的一种图像处理方法中卷积注意力模块的结构示意图,所述卷积注意力模块能够提升感兴趣区域的表征能力同时抑制非感兴趣区域的特征。所述卷积注意力模块包含通道注意力模块和空间注意力模块;所述通道注意力模块能够加权通道特征,增强重要的通道信息;所述空间注意力模块能够加权特征图的空间特征,增强特征图中重要的空间信息。由于卷积运算通过将跨通道信息和空间信息融合在一起来提取信息特征,因此卷积注意力模块也是采用模块加强了沿着通道和空间维度的重要的特征。
如图1、2所示,是本发明具体实施方式提供的一种图像处理方法中人脸去/戴眼镜的工作流程图,所述训练的方法包括如下步骤:
采用第二判别器计算输入训练样本包含处理特征的概率,获取包含处理特征的真实图像;
采用循环生成式对抗网络的第一生成器生成包含处理特征的真实图像的颜色注意力图和掩码注意力图,再将包含处理特征的真实图像和与其对应的颜色注意力图、掩码注意力图合成,通过循环生成式对抗网络的第一判别器判别获取不包含处理特征的第一合成图像;
采用循环生成式对抗网络的第二生成器生成第一合成图像的颜色注意力图和掩码注意力图,再将第一合成图像和与其对应的颜色注意力图、掩码注意力图合成为包含处理特征的第二合成图像;
采用循环生成式对抗网络的第一判别器计算输入训练样本包含处理特征的概率,获取不包含处理特征的真实图像;
采用循环生成式对抗网络的第二生成器生成不包含处理特征的真实图像的颜色注意力图和掩码注意力图,再将不包含处理特征的真实图像和与其对应的颜色注意力图、掩码注意力图合成,通过循环生成式对抗网络的第二判别器判别获取包含处理特征的第三合成图像;
采用循环生成式对抗网络的第一生成器生成第三合成图像的颜色注意力图和掩码注意力图,再将第三合成图像和与其对应的颜色注意力图、掩码注意力图合成为不包含处理特征的第四合成图像;
根据包含处理特征的真实图像、第二合成图像、不包含处理特征的真实图像和第四合成图像计算损失函数,以损失函数最小为目标,调整第二生成器、第一生成器、第二判别器和第一判别器。
所述第一合成图像、第二合成图像、第三合成图像和或第四合成图像的生成方法包括:将输入图像对应的颜色注意力图和掩码注意力图逐点相乘,得到图像改变区域值;将掩码注意力图反转并与输入图像逐点相乘,得到图像不变区域值;将图像改变区域值与图像不变区域值进行逐点相加,得到合成图片;与第一合成图像、第二合成图像、第三合成图像、第四合成图像相对应的,所述输入图像分别指:包含处理特征的真实图像、第一合成图像、不包含处理特征的真实图像、第三合成图像。
所述损失函数包括判别器损失函数、循环损失函数、全变分正则化损失函数。所述判别器损失函数是判别器与生成器的竞合,判别器期望能够准确的判断图片是否为真实图片,生成器则期望生成的合成图片能够欺骗判别器。所述循环损失函数是期望图片经过两个生成器能够回到本身,构成一个循环,即两个类别间的循环生成。全变分正则化损失函数是为了能够使得生成器生成的掩码注意力图能够具有较好的连续性,并且使得掩码注意力图尽可能的小即人脸在去眼镜的过程中尽可能只在眼镜附近产生变化。所述损失函数的计算公式如下:
L(G,F,Dx,Dy)=LGAN(F,Dy,X,Y)+LGAN(G,Dx,Y,X)+λLcyc(G,F,X,Y)+βLTV(A)
其中,
式中,G为第一生成器,F为第二生成器,Dx为第一判别器,Dy为第二判别器;
X为不包含处理特征的真实图像训练样本集合,Y为包含处理特征的真实图像训练样本集合,x为不包含处理特征的真实图像,y为包含处理特征的真实图像,x'为y经第一生成器G生成的不包含处理特征的合成图像,y'为x经第一生成器G生成的包含处理特征的合成图像,y”为x'经第二生成器F生成的包含处理特征的合成图像,x”为y'经第二生成器F生成的不包含处理特征的合成图像;
||||1为1范数函数;||||2为2范数函数;
A为第一生成器G或第二生成器F生成的掩码注意力图,h为掩码注意力图的高度,w为掩码注意力图的宽度;
Ai,j为掩码注意力图的第i行j列的值,Ai+1,j为掩码注意力图的第i+1行j列的值,Ai,j+1为为掩码注意力图的第i行j+1列的值,||A||2为掩码注意力图的2范数;
AG(y)为y经过G得到的掩码注意力图,AG(y')为y'经过G得到的掩码注意力图,AF(x)为x经过F得到的掩码注意力图,AF(x')为x'经过F得到的掩码注意力图;
CG(y)为y经过G得到的颜色注意力图,CG(y')为y'经过G得到的颜色注意力图,CF(x)为x经过F得到的颜色注意力图,CF(x')为x'经过F得到的颜色注意力图;
Dy(y)为第二判别器Dy判断输入图像y是否为y,Dy(y')为第二判别器Dy判断输入图像y'是否为y,Dx(x)为第一判别器Dx判断输入图像x是否为x,Dx(x')为第一判别器Dx判断输入图像x'是否为x;
E[]为期望函数,y~Pdata(Y)表示从包含处理特征的真实图像训练样本集合Y中随机选择一个包含处理特征的真实图像y,x~Pdata(X)表示从不包含处理特征的真实图像训练样本集合X中随机选择一个不包含处理特征的真实图像x;
L(G,F,Dx,Dy)为循环生成式对抗网络的损失函数;
LGAN(F,Dy,X,Y)为循环生成式对抗网络中第二生成器F和第二判别器Dy的极大极小化损失函数;
LGAN(G,Dx,Y,X)为循环生成式对抗网络中第一生成器G和第一判别器Dx的极大极小化损失函数;
Lcyc(G,F,X,Y)为循环生成式对抗网络的循环一致损失函数;
LTV(A)为循环生成式对抗网络的全变分差损失函数;
λ、β为超参数,为逐点相乘。
步骤四:获取训练好的生成器作为人脸去/戴眼镜的工具,对目标图像进行处理。所述第一生成器G为能够对目标图像进行人脸去眼镜的工具,所述第二生成器F为能够对目标图像进行人脸戴眼镜的工具。
将基于全变分正则化的循环生成式对抗网络作用在人脸去眼镜应用中,实现了人脸去/戴眼镜的良好转换,很好地解决了循环生成式对抗网络效果差和容易过拟合的问题。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (6)
1.一种图像处理方法,其特征在于,包括如下步骤:
采集包含处理特征的真实图像和不包含处理特征的真实图像,构建训练样本;
将训练样本输入至循环生成式对抗网络中,以预构建的损失函数最小为目标训练所述循环生成式对抗网络,所述损失函数包括全变分正则化损失函数;
采用训练好的循环生成式对抗网络对待处理图像进行处理。
2.根据权利要求1所述的图像处理方法,其特征在于,所述循环生成式对抗网络的训练方法包括如下步骤:
采用循环生成式对抗网络的第二判别器计算输入训练样本包含处理特征的概率,获取包含处理特征的真实图像;
采用循环生成式对抗网络的第一生成器生成包含处理特征的真实图像的颜色注意力图和掩码注意力图,再将包含处理特征的真实图像和与其对应的颜色注意力图、掩码注意力图合成,通过循环生成式对抗网络的第一判别器判别获取不包含处理特征的第一合成图像;
采用循环生成式对抗网络的第二生成器生成第一合成图像的颜色注意力图和掩码注意力图,再将第一合成图像和与其对应的颜色注意力图、掩码注意力图合成为包含处理特征的第二合成图像;
采用循环生成式对抗网络的第一判别器计算输入训练样本包含处理特征的概率,获取不包含处理特征的真实图像;
采用循环生成式对抗网络的第二生成器生成不包含处理特征的真实图像的颜色注意力图和掩码注意力图,再将不包含处理特征的真实图像和与其对应的颜色注意力图、掩码注意力图合成,通过循环生成式对抗网络的第二判别器判别获取包含处理特征的第三合成图像;
采用循环生成式对抗网络的第一生成器生成第三合成图像的颜色注意力图和掩码注意力图,再将第三合成图像和与其对应的颜色注意力图、掩码注意力图合成为不包含处理特征的第四合成图像;
根据包含处理特征的真实图像、第二合成图像、不包含处理特征的真实图像和第四合成图像计算损失函数,以所述损失函数最小为目的,调整第二生成器、第一生成器、第二判别器和第一判别器。
3.根据权利要求2所述的图像处理方法,其特征在于,所述第一合成图像、第二合成图像、第三合成图像和或第四合成图像的生成方法包括:
将输入图像对应的颜色注意力图和掩码注意力图逐点相乘,得到图像改变区域值;
将掩码注意力图反转并与输入图像逐点相乘,得到图像不变区域值;
将图像改变区域值与图像不变区域值进行逐点相加,得到合成图片;
与第一合成图像、第二合成图像、第三合成图像、第四合成图像相对应的,所述输入图像分别指:包含处理特征的真实图像、第一合成图像、不包含处理特征的真实图像、第三合成图像。
4.根据权利要求2所述的图像处理方法,其特征在于,所述损失函数如下:
L(G,F,Dx,Dy)=LGAN(F,Dy,X,Y)+LGAN(G,Dx,Y,X)+λLcyc(G,F,X,Y)+βLTV(A)
其中,
式中,G为第一生成器,F为第二生成器,Dx为第一判别器,Dy为第二判别器;
X为不包含处理特征的真实图像训练样本集合,Y为包含处理特征的真实图像训练样本集合,x为不包含处理特征的真实图像,y为包含处理特征的真实图像,x'为y经第一生成器G生成的不包含处理特征的合成图像,y'为x经第一生成器G生成的包含处理特征的合成图像,y”为x'经第二生成器F生成的包含处理特征的合成图像,x”为y'经第二生成器F生成的不包含处理特征的合成图像;
||||1为1范数函数;||||2为2范数函数;
A为第一生成器G或第二生成器F生成的掩码注意力图,h为掩码注意力图的高度,w为掩码注意力图的宽度;
Ai,j为掩码注意力图的第i行j列的值,Ai+1,j为掩码注意力图的第i+1行j列的值,Ai,j+1为掩码注意力图的第i行j+1列的值,||A||2为掩码注意力图的2范数;
AG(y)为y经过G得到的掩码注意力图,AG(y')为y'经过G得到的掩码注意力图,AF(x)为x经过F得到的掩码注意力图,AF(x')为x'经过F得到的掩码注意力图;
CG(y)为y经过G得到的颜色注意力图,CG(y')为y'经过G得到的颜色注意力图,CF(x)为x经过F得到的颜色注意力图,CF(x')为x'经过F得到的颜色注意力图;
Dy(y)为第二判别器Dy判断输入图像y是否为包含处理特征的真实图像,Dy(y')为第二判别器Dy判断输入图像y'是否为包含处理特征的真实图像,Dx(x)为第一判别器Dx判断输入图像x是否为不包含处理特征的真实图像,Dx(x')为第一判别器Dx判断输入图像x'是否为不包含处理特征的真实图像;
E[]为期望函数,y~Pdata(Y)表示从包含处理特征的真实图像训练样本集合Y中随机选择一个包含处理特征的真实图像y,x~Pdata(X)表示从不包含处理特征的真实图像训练样本集合X中随机选择一个不包含处理特征的真实图像x;
L(G,F,Dx,Dy)为循环生成式对抗网络的损失函数;
LGAN(F,Dy,X,Y)为循环生成式对抗网络中第二生成器F和第二判别器Dy的极大极小化损失函数;
LGAN(G,Dx,Y,X)为循环生成式对抗网络中第一生成器G和第一判别器Dx的极大极小化损失函数;
Lcyc(G,F,X,Y)为循环生成式对抗网络的循环一致损失函数;
LTV(A)为循环生成式对抗网络的全变分差损失函数;
λ、β为超参数,为逐点相乘。
5.根据权利要求1所述的图像处理方法,其特征在于,所述图像包括人脸图像,所述处理特征包括眼镜、耳饰、帽子和或头饰。
6.根据权利要求1所述的图像处理方法,其特征在于,所述方法还包括对训练样本进行预处理,所述预处理的方法包括如下步骤:
将训练样本的像素值与设定阈值相比较,剔除训练样本中像素值低于设定阈值的图像;
采用检测算法进行关键点检测;
根据检测获取的关键点进行图像裁剪获取目标图像,完成训练样本预处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910186966.1A CN110008846B (zh) | 2019-03-13 | 2019-03-13 | 一种图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910186966.1A CN110008846B (zh) | 2019-03-13 | 2019-03-13 | 一种图像处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110008846A true CN110008846A (zh) | 2019-07-12 |
CN110008846B CN110008846B (zh) | 2022-08-30 |
Family
ID=67166883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910186966.1A Active CN110008846B (zh) | 2019-03-13 | 2019-03-13 | 一种图像处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110008846B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718232A (zh) * | 2019-09-23 | 2020-01-21 | 东南大学 | 一种基于二维语谱图和条件生成对抗网络的语音增强方法 |
CN110796111A (zh) * | 2019-11-05 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN111340745A (zh) * | 2020-03-27 | 2020-06-26 | 成都安易迅科技有限公司 | 一种图像生成方法、装置、存储介质及电子设备 |
CN111767774A (zh) * | 2019-12-04 | 2020-10-13 | 北京沃东天骏信息技术有限公司 | 目标图像的生成方法、装置和计算机可读存储介质 |
CN112233127A (zh) * | 2020-10-15 | 2021-01-15 | 上海圭目机器人有限公司 | 一种用于弯道拼接图像的下采样方法 |
CN112418310A (zh) * | 2020-11-20 | 2021-02-26 | 第四范式(北京)技术有限公司 | 文本风格迁移模型训练方法和系统及图像生成方法和系统 |
CN113223730A (zh) * | 2021-03-30 | 2021-08-06 | 武汉市疾病预防控制中心 | 基于人工智能的疟疾分类方法及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101166A4 (en) * | 2017-08-25 | 2017-11-02 | Lai, Haodong MR | A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks |
CN107577985A (zh) * | 2017-07-18 | 2018-01-12 | 南京邮电大学 | 基于循环生成对抗网络的人脸头像卡通化的实现方法 |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
-
2019
- 2019-03-13 CN CN201910186966.1A patent/CN110008846B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107577985A (zh) * | 2017-07-18 | 2018-01-12 | 南京邮电大学 | 基于循环生成对抗网络的人脸头像卡通化的实现方法 |
AU2017101166A4 (en) * | 2017-08-25 | 2017-11-02 | Lai, Haodong MR | A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718232A (zh) * | 2019-09-23 | 2020-01-21 | 东南大学 | 一种基于二维语谱图和条件生成对抗网络的语音增强方法 |
CN110796111A (zh) * | 2019-11-05 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN111767774A (zh) * | 2019-12-04 | 2020-10-13 | 北京沃东天骏信息技术有限公司 | 目标图像的生成方法、装置和计算机可读存储介质 |
CN111340745A (zh) * | 2020-03-27 | 2020-06-26 | 成都安易迅科技有限公司 | 一种图像生成方法、装置、存储介质及电子设备 |
CN112233127A (zh) * | 2020-10-15 | 2021-01-15 | 上海圭目机器人有限公司 | 一种用于弯道拼接图像的下采样方法 |
CN112418310A (zh) * | 2020-11-20 | 2021-02-26 | 第四范式(北京)技术有限公司 | 文本风格迁移模型训练方法和系统及图像生成方法和系统 |
CN113223730A (zh) * | 2021-03-30 | 2021-08-06 | 武汉市疾病预防控制中心 | 基于人工智能的疟疾分类方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110008846B (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110008846A (zh) | 一种图像处理方法 | |
CN109829443A (zh) | 基于图像增强与3d卷积神经网络的视频行为识别方法 | |
CN106228137A (zh) | 一种基于关键点定位的atm机异常人脸检测方法 | |
CN110020606A (zh) | 一种基于多尺度卷积神经网络的人群密度估计方法 | |
CN107808132A (zh) | 一种融合主题模型的场景图像分类方法 | |
CN109801292A (zh) | 一种基于生成对抗网络的沥青公路裂缝图像分割方法 | |
CN111178208A (zh) | 基于深度学习的行人检测方法、装置及介质 | |
Li et al. | Deep dehazing network with latent ensembling architecture and adversarial learning | |
CN105957356B (zh) | 一种基于行人数量的交通控制系统及方法 | |
Cao et al. | Haze removal of railway monitoring images using multi-scale residual network | |
Xu et al. | DeepFake Videos Detection Based on Texture Features. | |
CN108537143B (zh) | 一种基于重点区域特征比对的人脸识别方法与系统 | |
CN109598681A (zh) | 一种对称唐卡修复后图像的无参考质量评价方法 | |
CN113537008A (zh) | 基于自适应运动放大和卷积神经网络的微表情识别方法 | |
CN112633234A (zh) | 人脸去眼镜模型训练、应用方法及其装置、设备和介质 | |
Dong et al. | Semi-supervised domain alignment learning for single image dehazing | |
Wang et al. | Recurrent context aggregation network for single image dehazing | |
Chen et al. | SSR-HEF: crowd counting with multiscale semantic refining and hard example focusing | |
CN108961358A (zh) | 一种获得样本图片的方法、装置及电子设备 | |
Guo et al. | Exposing deepfake face forgeries with guided residuals | |
Zhang et al. | SRTNet: a spatial and residual based two-stream neural network for deepfakes detection | |
CN113642479A (zh) | 人脸图像的评价方法、装置、电子设备及存储介质 | |
Niu et al. | A boundary-aware network for shadow removal | |
Marnissi et al. | GAN-based Vision Transformer for High-Quality Thermal Image Enhancement | |
CN109325920A (zh) | 雾霾图像清晰化方法、系统及可存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |