CN115063859A - 基于生成对抗网络的人脸图像转换成素描的方法及系统 - Google Patents
基于生成对抗网络的人脸图像转换成素描的方法及系统 Download PDFInfo
- Publication number
- CN115063859A CN115063859A CN202210718919.9A CN202210718919A CN115063859A CN 115063859 A CN115063859 A CN 115063859A CN 202210718919 A CN202210718919 A CN 202210718919A CN 115063859 A CN115063859 A CN 115063859A
- Authority
- CN
- China
- Prior art keywords
- sketch
- image
- face
- network
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000006243 chemical reaction Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 38
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 11
- 230000001815 facial effect Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000002790 cross-validation Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 abstract description 6
- 238000003786 synthesis reaction Methods 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像数据转换技术领域,提供了一种基于生成对抗网络的人脸图像转换成素描的方法及系统,获取人脸图像;依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块;本发明在人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,同时加入并行处理的自注意力模块,采用多尺度方法学习深层与浅层的特征,将不同类别的特征图融合,使保持速度的同时,提高了合成质量。
Description
技术领域
本发明属于图像数据转换技术领域,尤其涉及一种基于生成对抗网络的人脸图像转换成素描的方法及系统。
背景技术
人脸素描草图已在许多领域得到广泛应用,特别是在追踪疑犯中,可以提供便利。目前,只有少数法医素描画师可以到达专业水平,这难以满足目标侦察和破案的需要。因此,人脸照片如何高效准确地转换成素描草图是一个紧迫问题。
发明人发现,目前这种照片到草图的翻译是基于少数专注于纹理细节的草图样本,例如眼睛,鼻子和嘴巴以及全局面部轮廓;同时,该问题也可以被视为图像到图像翻译问题,如使用面部构图信息进行面部照片素描合成,并采用新颖的构图辅助生成对抗网络。但是现有方法中使用的网络结构的复杂度相对较高,训练时间较长,并且在图像清晰度和预测画像质量方面还需提升。
发明内容
本发明为了解决上述问题,提出了一种基于生成对抗网络的人脸图像转换成素描的方法及系统,本发明使用轻量级网络对人脸数据库中的样本合成素描图像,在保障合成图像质量的同时,提高了合成图像的速度。
为了实现上述目的,本发明是通过如下的技术方案来实现:
第一方面,本发明提供了一种基于生成对抗网络的人脸图像转换成素描的方法,包括:
获取人脸图像;
依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;
其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块。
进一步的,人脸素描图像转换模型训练时,将人脸图像数据库分为训练集和测试集;人脸图像数据库大于预设值时,采用留出验证法选择训练集和测试集,人脸图像数据库不大于预设值时,采用留一交叉验证法选择训练集和测试集。
进一步的,将人脸图像数据库中的人脸图像进行预处理,得到相同尺寸的图像。
进一步的,生成对抗网络包括:
上采样部分,包括一个步长为1卷积核为7×7的卷积层,以及两个步长为2卷积核为3×3的卷积层;
第一多尺度结构的网络残差块,每个残差块为步长为1,卷积核为3×3的卷积层;
并行处理的自注意力部分;
第二多尺度结构的网络残差块,每个残差块为步长为1,卷积核为3×3的卷积层;
下采样部分,采用了和上采样部分对称的结构;
判别器,包括一个下采样模块、一个全连接层和一个步长为1卷积核为4×4的卷积层;其中,下采样模块包括三个步长为2卷积核为4×4的卷积层,以及一个步长为1卷积核为4×4的卷积层。
进一步的,第二多尺度结构的网络残差块中采用了自适应归一化方法。
进一步的,损失函数包括生成对抗网络损失函数,标识损失函数、循环一致性损失函数和类激活损失函数。
进一步的,并行处理的自注意力模块重点关注根据辅助分类器获得的特征图将图像与草图区分开来的区域。
第二方面,本发明还提供了一种基于生成对抗网络的人脸图像转换成素描的系统,包括:
数据采集模块,被配置为:获取人脸图像;
转换模块,被配置为:依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;
其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块。
第三方面,本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现了第一方面所述的基于生成对抗网络的人脸图像转换成素描的方法的步骤。
第四方面,本发明还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现了第一方面所述的基于生成对抗网络的人脸图像转换成素描的方法的步骤。
与现有技术相比,本发明的有益效果为:
1、本发明在人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,多尺度结构可以获得深层和浅层信息,从而更好地区分后续的人脸信息,同时加入并行处理的自注意力模块,使得图像在生成质量细节方面得到提升;采用多尺度方法学习深层与浅层的特征,将不同类别的特征图融合,使保持速度的同时,提高了合成质量;
2、本发明利用轻量级生成对抗网络对人脸数据库中的样本合成素描图像,在保障合成图像质量的同时,提高了合成图像的速度;轻量级生成对抗网络中的生成对抗网络结构能满足合成图像质量问题,不同时刻的特征图融合充分利用浅层和深层信息;
3、本发明提出的算法能有效为图像迁移,比如罪犯追踪等提供帮助,同时满足准确性和实时性要求,能够克服专业素描画师少,计算占用内存大,训练时间长的问题。
附图说明
构成本实施例的一部分的说明书附图用来提供对本实施例的进一步理解,本实施例的示意性实施例及其说明用于解释本实施例,并不构成对本实施例的不当限定。
图1为本发明实施例1的流程图;
图2为本发明实施例1的图像预处理方法流程图;
图3为本发明实施例1的网络框架示意图。
具体实施方式:
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
实施例1:
本实施例提供了一种基于生成对抗网络的人脸图像转换成素描的方法,包括:
获取人脸图像;
依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;
其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块。
本实施中的基于生成对抗网络的人脸图像转换成素描的方法是一种图像迁移学习方法,除了应用于人脸照片-素描合成外,还可以应用于动漫人物生成等领域;以人脸图像转换成素描的方法为例,内容包括:
利用人脸素描图像转换模型对人脸图像库中的人脸照片图像转换成素描图像,人脸图像可以理解为人脸照片,人脸素描图像转换模型可以理解为轻量级生成对抗网络;其中,轻量级生成对抗网络的训练过程为:对参考照片草图进行处理的方法增加了注意力模块,该模块重点关注根据辅助分类器获得的特征图将照片与草图区分开来的区域;不同的残差层对应不同判别器的层数,以优化本实施例中的网络。其中,参考照片草图可以理解为输入图像,草图可以理解为输出图像,判别器可以理解的为生成对抗网络的判别图像生成是否为真的部分;辅助分类器为辅助正确生成相应输出图像的分类器。本实施例的具体步骤为:
S1、收集人脸图像库,比如人脸照片库,对人脸图像库的图像划分形成训练集和测试集,如图2所示;具体的,人脸图像库的收集可以通过手机、相机等进行收集,也可以在网络上进行现有人脸图像的收集;可以理解的,人脸图像库中可以包括人脸照片以及与人脸照片对应的素描图像;
步骤S1的具体过程为:
S1.1、对人脸图像进行预处理,得到相同尺寸的图像,输入到神经网络中;得到相同尺寸的图像时,可以先采用python库处理不同的格式文件和图像类型,使得numpyndarray存储图像,通过PIL进行裁剪图像的操作。
S1.2、在人脸图像库中数据量大于预设值时,也就是数据库较大的情况下训练集和测试集的选择方法为留出验证法;在人脸图像库中数据量不大于预设值时,也就是在数据量不大的情况下选用留一交叉验证法,如图2所示;预设值可以理解为一个常数,可以根据实际情况进行定义和改变;所述留出验证法为将数据集直接拆分为两个互斥的集合,其中一个为训练集,另一个为测试集;所述留一交叉验证法为将数据集划分为数据集大小个互斥子集,之后每次都用数据集大小-1个子集的并集作为训练集,余下的那个子集作为测试集,从而获得数据集大小组训练/测试集,进行数据集大小次训练和测试。
S2、将预处理之后的人脸照片图像的训练集输入到如图3所示的轻量级生成对抗网络中进行训练,训练过程中采用多尺度方法学习深层与浅层的特征,将不同类别的特征图融合,使保持速度的同时,提高合成质量;步骤S2的具体过程为:
S2.1、下采样部分,依次通过步长为1卷积核为7×7,以及2个步长为2卷积核为3×3的卷积层;
S2.2、如图3所示,通过残差网络进一步得到更丰富的图像信息;这里采用了多尺度结构分别对输入进行4层和6层的网络残差块,也就是第一多尺度结构的网络残差块;其中,每个残差块为步长为1卷积核为3×3的卷积层;多尺度结构可以获得深层和浅层信息,从而更好地区分后续的人脸信息;
S2.3、如图3所示,经过一个全连接层后通过多尺度的特征图进行生成器的训练,同时加入并行处理的自注意力模块,使得图像在生成质量细节方面得到提升;
S2.4、通过多尺度结构分别对输入进行4层和6层的网络残差块,也就是第二多尺度结构的网络残差块;其中,每个残差块为步长为1卷积核为3×3的卷积层,不同之处为采用了自适应归一化方法,它将实例归一化和层归一化线性组合,在训练过程中调整实例归一化和层归一化的权重占比,使得归一化效果达到最佳状态;
S2.5、下采样模块采用了和上采样模块对称的结构,依次经过了2个步长为2卷积核为3×3的卷积层,以及步长为1卷积核为7×7的卷积层;至此,生成器的结构介绍完毕;
S2.6:在判别器结构方面,如图3所示;通过一个下采样模块对图片进行编码,具体为3个步长为2卷积核为4×4的卷积层,以及一个步长为1卷积核为4×4的卷积层;这个结构是在超分辨率合成网络的基础上进行修剪,在计算量方面得到改善;
S2.7、下采样后网络通过一个全连接层,进入特征图的计算判断中;在损失函数方面,利用的是类激活函数图和素描图的训练损失;
S2.8、最后,通过一个步长为1卷积核为4×4的卷积层得到判别结果。
本实施例中,整体损失函数包括生成对抗网络损失、标识损失、循环一致性损失和类激活损失四部分;为了使得训练照片稳定化,本实施例中可以使用最小二乘生成对抗网络。
其中,生成对抗网络损失函数为:
标识损失函数为:
循环一致性损失为:
类激活损失为:
本实施例利用轻量级生成对抗网络解决了人脸照片-素描转换问题;对人脸照片库中的人脸照片划分形成训练集和测试集,对人脸照片的图像进行预处理,得到相同尺寸的图像,输入到神经网络中;通过生成对抗网络,生成器在多尺度结构的基础上利用自注意力模块和残差模块进行特征提取,判别器在对应的下采样模块中进行了相应的层数调整,减少了卷积层的数量,节约计算机资源,达到轻量级的要求;本实施例提出的人脸照片-素描转换算法能有效为刑侦破案等应用领域提供帮助,同时满足准确性和实时性要求,能够克服素描画师少,计算占用内存大,训练时间长的问题。
实施例2:
本实施例提供了一种基于生成对抗网络的人脸图像转换成素描的系统,包括:
数据采集模块,被配置为:获取人脸图像;
转换模块,被配置为:依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;
其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块。
所述系统的工作方法与实施例1的基于生成对抗网络的人脸图像转换成素描的方法相同,这里不再赘述。
实施例3:
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现了实施例1所述的基于生成对抗网络的人脸图像转换成素描的方法的步骤。
实施例4:
本实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现了实施例1所述的基于生成对抗网络的人脸图像转换成素描的方法的步骤。
以上所述仅为本实施例的优选实施例而已,并不用于限制本实施例,对于本领域的技术人员来说,本实施例可以有各种更改和变化。凡在本实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本实施例的保护范围之内。
Claims (10)
1.基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,包括:
获取人脸图像;
依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;
其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块。
2.如权利要求1所述的基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,人脸素描图像转换模型训练时,将人脸图像数据库分为训练集和测试集;人脸图像数据库大于预设值时,采用留出验证法选择训练集和测试集,人脸图像数据库不大于预设值时,采用留一交叉验证法选择训练集和测试集。
3.如权利要求2所述的基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,将人脸图像数据库中的人脸图像进行预处理,得到相同尺寸的图像。
4.如权利要求1所述的基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,生成对抗网络包括:
上采样模块,包括一个步长为1卷积核为7×7的卷积层,以及两个步长为2卷积核为3×3的卷积层;
第一多尺度结构的网络残差块,每个残差块为步长为1,卷积核为3×3的卷积层;
并行处理的自注意力模块;
第二多尺度结构的网络残差块,每个残差块为步长为1,卷积核为3×3的卷积层;
下采样模块,采用了和上采样模块对称的结构;
判别器,包括一个下采样模块、一个全连接层和一个步长为1卷积核为4×4的卷积层;其中,下采样模块包括三个步长为2卷积核为4×4的卷积层,以及一个步长为1卷积核为4×4的卷积层。
5.如权利要求4所述的基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,第二多尺度结构的网络残差块中采用了自适应归一化方法。
6.如权利要求1所述的基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,损失函数包括生成对抗网络损失函数,标识损失函数、循环一致性损失函数和类激活损失函数。
7.如权利要求1所述的基于生成对抗网络的人脸图像转换成素描的方法,其特征在于,并行处理的自注意力模块重点关注根据辅助分类器获得的特征图将图像与草图区分开来的区域。
8.基于生成对抗网络的人脸图像转换成素描的系统,其特征在于,包括:
数据采集模块,被配置为:获取人脸图像;
转换模块,被配置为:依据获取的人脸图像,以及预设的人脸素描图像转换模型,得到人脸素描图像;
其中,所述人脸素描图像转换模型通过生成对抗网络训练得到;人脸素描图像转换模型训练过程中采用了多尺度结构的网络残差块,以及在多尺度结构的网络残差块后加入了并行处理的自注意力模块。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现了如权利要求1-7任一项所述的基于生成对抗网络的人脸图像转换成素描的方法的步骤。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现了如权利要求1-7任一项所述的基于生成对抗网络的人脸图像转换成素描的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210718919.9A CN115063859A (zh) | 2022-06-23 | 2022-06-23 | 基于生成对抗网络的人脸图像转换成素描的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210718919.9A CN115063859A (zh) | 2022-06-23 | 2022-06-23 | 基于生成对抗网络的人脸图像转换成素描的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115063859A true CN115063859A (zh) | 2022-09-16 |
Family
ID=83202040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210718919.9A Pending CN115063859A (zh) | 2022-06-23 | 2022-06-23 | 基于生成对抗网络的人脸图像转换成素描的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115063859A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359166A (zh) * | 2022-10-20 | 2022-11-18 | 北京百度网讯科技有限公司 | 一种图像生成方法、装置、电子设备和介质 |
CN116579917A (zh) * | 2023-05-16 | 2023-08-11 | 山东大学 | 基于级联双生成器的人脸正面化方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544442A (zh) * | 2018-11-12 | 2019-03-29 | 南京邮电大学 | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 |
CN111932458A (zh) * | 2020-08-10 | 2020-11-13 | 韶鼎人工智能科技有限公司 | 一种基于区域间注意力机制的图像信息提取与生成方法 |
CN112017301A (zh) * | 2020-07-24 | 2020-12-01 | 武汉纺织大学 | 用于服装图像特定相关区域的风格迁移模型及方法 |
CN112132741A (zh) * | 2020-08-18 | 2020-12-25 | 山东大学 | 一种人脸照片图像和素描图像的转换方法及系统 |
CN114240810A (zh) * | 2021-11-10 | 2022-03-25 | 合肥工业大学 | 一种基于渐进式生成网络的人脸素描-照片合成方法 |
-
2022
- 2022-06-23 CN CN202210718919.9A patent/CN115063859A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544442A (zh) * | 2018-11-12 | 2019-03-29 | 南京邮电大学 | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 |
CN112017301A (zh) * | 2020-07-24 | 2020-12-01 | 武汉纺织大学 | 用于服装图像特定相关区域的风格迁移模型及方法 |
CN111932458A (zh) * | 2020-08-10 | 2020-11-13 | 韶鼎人工智能科技有限公司 | 一种基于区域间注意力机制的图像信息提取与生成方法 |
CN112132741A (zh) * | 2020-08-18 | 2020-12-25 | 山东大学 | 一种人脸照片图像和素描图像的转换方法及系统 |
CN114240810A (zh) * | 2021-11-10 | 2022-03-25 | 合肥工业大学 | 一种基于渐进式生成网络的人脸素描-照片合成方法 |
Non-Patent Citations (1)
Title |
---|
段树超: ""基于改进残差生成对抗网络的人脸照片-素描转换研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》, 15 December 2021 (2021-12-15), pages 2 - 3 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359166A (zh) * | 2022-10-20 | 2022-11-18 | 北京百度网讯科技有限公司 | 一种图像生成方法、装置、电子设备和介质 |
CN116579917A (zh) * | 2023-05-16 | 2023-08-11 | 山东大学 | 基于级联双生成器的人脸正面化方法及系统 |
CN116579917B (zh) * | 2023-05-16 | 2023-09-26 | 山东大学 | 基于级联双生成器的人脸正面化方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Anoosheh et al. | Night-to-day image translation for retrieval-based localization | |
CN114067107B (zh) | 基于多粒度注意力的多尺度细粒度图像识别方法及系统 | |
CN115063859A (zh) | 基于生成对抗网络的人脸图像转换成素描的方法及系统 | |
Zhao et al. | Pyramid global context network for image dehazing | |
CN110796143A (zh) | 一种基于人机协同的场景文本识别方法 | |
CN111652081B (zh) | 一种基于光流特征融合的视频语义分割方法 | |
CN112801182A (zh) | 一种基于困难样本感知的rgbt目标跟踪方法 | |
CN113781324A (zh) | 一种老照片修复方法 | |
CN110633640A (zh) | 优化PointNet对于复杂场景的识别方法 | |
Zhang et al. | Hierarchical attention aggregation with multi-resolution feature learning for GAN-based underwater image enhancement | |
Liu et al. | Griddehazenet+: An enhanced multi-scale network with intra-task knowledge transfer for single image dehazing | |
CN116189265A (zh) | 基于轻量化语义Transformer模型的素描人脸识别方法、装置及设备 | |
CN112149526A (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
Li et al. | Fish detection method based on improved YOLOv5 | |
CN112016592B (zh) | 基于交叉领域类别感知的领域适应语义分割方法及装置 | |
Lian et al. | Multitask learning for image translation and salient object detection from multimodal remote sensing images | |
Honda et al. | Improvement of text image super-resolution benefiting multi-task learning | |
CN115471901A (zh) | 基于生成对抗网络的多姿态人脸正面化方法及系统 | |
CN116740413A (zh) | 一种基于改进YOLOv5的深海生物目标检测方法 | |
Xu et al. | MDTL-NET: Computer-generated image detection based on multi-scale deep texture learning | |
CN115222578A (zh) | 图像风格迁移方法、程序产品、存储介质及电子设备 | |
Pei et al. | FGO-Net: Feature and Gaussian Optimization Network for visual saliency prediction | |
Wang et al. | GDS: Global description guided down-sampling for 3D point cloud classification | |
Gao et al. | TEGAN: Transformer embedded generative adversarial network for underwater image enhancement | |
Huang et al. | Dq-detr: Detr with dynamic query for tiny object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |