CN114913086A - 基于生成对抗网络的人脸图像质量增强方法 - Google Patents
基于生成对抗网络的人脸图像质量增强方法 Download PDFInfo
- Publication number
- CN114913086A CN114913086A CN202210481855.5A CN202210481855A CN114913086A CN 114913086 A CN114913086 A CN 114913086A CN 202210481855 A CN202210481855 A CN 202210481855A CN 114913086 A CN114913086 A CN 114913086A
- Authority
- CN
- China
- Prior art keywords
- face
- quality
- image
- layer
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 8
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000003042 antagnostic effect Effects 0.000 abstract description 4
- 230000003068 static effect Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了人脸图像质量增加方法‑生成对抗网络方法,具体地,包含以下五个步骤:1)静态人脸数据采集,2)数据处理,3)搭建生成对抗网络,4)训练生成对抗网络,5)测试生成对抗网络,本发明采用生成对抗网络来建模人脸图像质量,生成器包含图像增强、分辨率增强,图像增强实现对人脸图像亮度和噪声的矫正与增强,采用三种不同的方式来测量原始高质量人脸图像和增强后人脸图像之间的相似性,分别是MSE、SSIM以及判别器输出的分数,实现半监督的方法实现人脸图像质量增强,不需要标记训练数据,大大简化训练难度。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于生成对抗网络的人脸图像质量增强方法。
背景技术
如今,大多数人脸识别应用都是在不受约束的条件下进行的,这有利于一些可变因素出现,如低分辨率、异质背景、模糊等,严重影响识别精度。因此,人脸识别系统有必要具备识别和处理这些因素的能力,在这种情况下,人脸识别环境的质量评估可以理解为评估人脸图像质量以决定该图片是否适合人脸识别,因为低质量的图像在用于进行人脸识别时不会产生可靠的结果。
最近,受深度学习成功的启发,人脸图像质量增强工作也在应用深度学习技术。基于深度学习的大多数相关工作都属于完全监督方法的范畴。然而,正确标记数据的稀缺性是这些方法的主要问题,这不仅是因为训练它们需要大量数据,而且还因为难以用明确的质量值标记数据而不会出错或引入人为偏见。
发明内容
为了克服现有技术的缺陷,本发明采用半监督方法来处理这些限制,不需要完整的训练标签来进行学习。只需要为训练数据库中的每个主题选择一张尽可能高质量的人脸图像,而不给它任何数字质量标签,每个主题的剩余图像将用作质量未知的训练样本。本发明的技术方案如下:
一种基于生成对抗网络的人脸图像质量增强方法,包括如下步骤,
S1:数据采集,采集不同光照、不同背景、不同清晰度的人脸图像作为实验数据;
S2:数据处理,将训练集中的每张人脸裁剪并调整为32×32×3像素;
S3:搭建生成对抗网络模型:
S3.1:生成器模型搭建,生成器G包含图像增强模块、分辨率增强模块;图像增强模块实现对人脸图像亮度和噪声的矫正与增强,由三个一样的GMNet组成,每个GMNet包含卷积层和Relu层组成;分辨率增强模块实现对人脸图像清晰度的增强,由三个一样的SMNet、上采样层、和卷积层组成,每个SMNet具有相同的结构,是由卷积层、处理归一化层、Relu层组成;
S3.2:判别器模型搭建,包含五个一样的DMNet、完全连接(FC)层和一个输出层,每一个DMNet包含卷积层、Leaky ReLU激活层和批处理归一化层;输出层计算了真正的高质量图像和增强后的高质量图像之间的图像质量分数;
S4:训练生成对抗网络:
S4.1:单独训练生成器G,使其权重的初始化良好,使用Adam优化器,以初始学习率为0.0005对整个数据集进行了25000次迭代,采用能描述的结构相似度指数度量的SSIM作为G的函数损失,分别从亮度、对比度和结构三种不同角度度量,随后被组合成一个最终值;
S4.2:联合训练生成器和判别器,使用Adam优化器以初始学习率为0.0005对整个数据集进行了25000次迭代,每次迭代先沿着整个数据集训练判别器,然后,把判别器D的权值分片到[-0.05,0.05]范围内,以提高训练过程的收敛性,最后,存储D的所有权值,并在整个数据集上训练完整的GAN并采用二至交叉熵作为损失函数;
S4.3:输出增强后的人脸图像质量分数,采用三种不同的方式来测量原始高质量人脸图像和增强后人脸图像之间的相似性,分别是MSE、SSIM以及判别器输出的分数;
S5:测试生成对抗网络:
S5.1:初始人脸质量评分,使用MTCNN作为人脸检测器来检测测试集中每张图像中的人脸,使用该模型输出检测分数;
S5.2:人脸图像增强,将测试集中的每张人脸裁剪并调整为32×32×3像素,将其输入生成对抗网络,生成器的输出是质量增强后的人脸图像;
S5.3:质量增强效果评估,将初始人脸和质量增强后的人脸输入判别器,判别器给出的分数即作为质量增强效果,将增强后的人脸输入MTCNN模型进行人脸检测,输出检测分数,对比质量增强前后的检测分数;
附图说明
图1为摘要附图.
图2为本发明基于生成对抗网络的人脸图像质量增强方法的整体网络结构图。
具体实施方式
下面将结合本发明实施例中的附图1~2,对本发明实施例中的技术方案进行清楚完整地描述,显然,所有描述地实施例仅是本发明一部分实施例,而不是全部的实施例。融合本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的范围。
本发明采用生成对抗网络来建模人脸图像质量,生成器包含图像增强、分辨率增强,图像增强实现对人脸图像亮度和噪声的矫正与增强,采用三种不同的方式来测量原始高质量人脸图像和增强后人脸图像之间的相似性,分别是MSE、SSIM以及判别器输出的分数,实现半监督的方法实现人脸图像质量增强,利用少量标注数据和大量无标注数据进行共同训练,减少标注负担,大大简化训练难度,提升模型的泛化能力。
本发明基于生成对抗网络的图像质量增强方法包括以下步骤:
如图1所示,包含数据采集、数据处理、搭建生成对抗网络、训练生成对抗网络和测试生成对抗网络。
步骤S1.数据采集:
采集具有不同质量的静态人脸数据作为实验数据,分别分为训练集采集和测试集采集。训练集采集使用六个不同质量的视频监控摄像机在不受控制的室内环境中拍摄人脸图像,共采集本公司员工300个对象的两组不同姿势的1800张静态面部图像。同时使用专业高清照相机以拍证件照的方式采集300个对象的300张高质量面部图像。不同质量的视频监控在不受控制的室内环境中能模拟真实人脸检测环境。两台摄像机拍摄时唯一的照明源是室外光,从一侧窗户射进来。两台摄像机拍摄时在一个单独黑暗的房间里,用于拍摄红外大头照。两台摄像机拍摄时唯一的照明源是室内光,具有标准的室内照明,配备足够的闪光灯。
步骤S2.数据处理:将训练集中的每张人脸裁剪并调整为32×32×3像素。
步骤S3.搭建生成对抗网络:
如图2所示,生成对抗网络包含生成器G和判别器D。对于每幅质量未知的人脸图像,生成器G。将尝试将其恢复,获得高质量、无失真的人脸图像。由于训练数据集包含大量的具有多个不同变化的样本图像,例如模糊、横向姿态、低分辨率、遮挡等。生成器的目的是将学习如何恢复变形图像。判别器D的目标在于区分恢复图像和真正的高质量图像。从而能提高生成器G的准确性。判别器D的输出将是一个大小在0-1之间数值分数。0表示判别器预测结果为图像是由生成器G生成的,1表示判别器预测图像结果为真正的高质量图像。GAN学习过程以数据驱动的方式迭代优化G和D,直到无法区分恢复的图像和真正的高质量。
步骤S3.1.生成器G模型搭建。生成器G包含图像增强模块、分辨率增强模块。图像增强模块实现对人脸图像亮度和噪声的矫正与增强,由三个一样的GMNet组成,每一个GMNet具有相同的结构,每个GMNet包含卷积层和Relu层组成,由于去掉批处理归一化层,不影响网络的训练结果的同时,能加快网络训练,故图像增强模块不采用该层。分辨率增强模块实现对人脸图像清晰度的增强,由三个一样的SMNet、上采样层、和卷积层组成,每个SMNet具有相同的结构,是由卷积层、处理归一化层、Relu层组成。
步骤S3.2.判别器G模型搭建。判别器D,包含五个一样的DMNet、完全连接(FC)层和一个输出层。每一个DMNet包含卷积层、Leaky ReLU激活层和批处理归一化层。卷积层之后是Leaky ReLU激活和批处理归一化,以保持输出值在期望的范围内,并改进学习过程。在最后一个卷积层中使用了一个完全连接(FC)层和一个输出层,该层计算了真正的高质量图像(1)和恢复的高质量图像(0)之间的图像质量分数。该值越大表明该张图片下的人脸识别环境质量越高。
步骤S4.训练生成对抗网络:
选择300个对象的高质量证件照作为groudtruth,每个对象的所有剩余静态人脸图像作为学习过程的输入样本,经过生成器生成的人脸图像与原始高质量人脸图像同时输入判别器。该网络模型由pytorch实现,利用一台自带GPU的电脑训练网络,训练时采用Adam优化器对数据集进行迭代,初始学习率设置为0.0005。包含以下步骤:
S4.1.首先单独训练生成器G,使其权重的初始化良好。使用Adam优化器(初始学习率为0.0005)对整个数据集进行了25000次迭代。由于MSE只考虑了两幅图像的像素之间的平均差值,而没有考虑像素的结构等其他属性。故采用能描述的结构相似度指数度量的SSIM作为G的函数损失。SSIM将相似度度量分为三种不同的度量,即亮度、对比度和结构,这些度量随后被组合成一个最终值。
S4.2.联合训练生成器和判别器。使用Adam优化器(初始学习率为0.0005)对整个数据集进行了25000次迭代。对于每次迭代,首先沿着整个数据集训练判别器。然后存储判别器D的所有权值,并在整个数据集上训练完整的生成对抗网络。在这一训练阶段,采用二至交叉熵作为损失函数。
S4.3.输出增强后的人脸图像质量分数。采用判别器的输出分数来测量原始高质量人脸图像和增强后人脸图像之间的相似性。因为生成器试图欺骗判别器。如果生成器的恢复能力是准确的,那么增强后的图像将与判别器中真正高质量的图像难以区分。相反,如果生成器不能很好地增强低质量的图像,判别器将很容易区分恢复的图像和高质量的图像。故而判别器的输出分数将是一个良好的质量估计器。
步骤S5.测试生成对抗网络:
步骤S5.1.初始人脸质量评分
使用MTCNN作为人脸识别模型来检测测试集中每张图像中的人脸,使用该模型输出检测分数。
步骤S5.2.人脸图像增强
将测试集中的每张人脸裁剪并调整为32×32×3像素,将其输入生成对抗网络。生成器的输出是质量增强后的人脸图像。
步骤S5.3.质量增强效果评估
将初始人脸和质量增强后的人脸输入判别器,判别器给出的分数即作为质量增强效果。将增强后的人脸输入MTCNN模型进行人脸检测,输出检测分数,对比质量增强后的检测分数和增强前的检测分数。
Claims (1)
1.一种基于生成对抗网络的人脸图像质量增强方法,其特征在于,所述生成对抗网络的人脸图像质量增强方法包含以下步骤:
步骤S1:数据采集,采集不同光照、不同背景、不同清晰度的人脸图像作为实验数据;
步骤S2:数据处理,将训练集中的每张人脸裁剪并调整为32×32×3像素;
步骤S3:搭建生成对抗网络模型,包括以下步骤:
步骤S3.1:生成器模型搭建,生成器G包含图像增强模块、分辨率增强模块;图像增强模块实现对人脸图像亮度和噪声的矫正与增强,由三个一样的GMNet组成,每个GMNet包含卷积层和Relu层组成;分辨率增强模块实现对人脸图像清晰度的增强,由三个一样的SMNet、上采样层、和卷积层组成,每个SMNet具有相同的结构,是由卷积层、处理归一化层、Relu层组成;
步骤S3.2:判别器模型搭建,包含五个一样的DMNet、完全连接(FC)层和一个输出层,每一个DMNet包含卷积层、Leaky ReLU激活层和批处理归一化层;输出层计算了真正的高质量图像和增强后的高质量图像之间的图像质量分数;
步骤S4:训练生成对抗网络,包括以下步骤:
步骤S4.1:单独训练生成器G,使其权重的初始化良好,使用Adam优化器,以初始学习率为0.0005对整个数据集进行了25000次迭代,采用能描述的结构相似度指数度量的SSIM作为G的函数损失,分别从亮度、对比度和结构三种不同角度度量,随后被组合成一个最终值;
步骤S4.2:联合训练生成器和判别器,使用Adam优化器以初始学习率为0.0005对整个数据集进行了25000次迭代,每次迭代先沿着整个数据集训练判别器,然后,把判别器D的权值分片到[-0.05,0.05]范围内,以提高训练过程的收敛性,最后,存储D的所有权值,并在整个数据集上训练完整的GAN并采用二至交叉熵作为损失函数;
步骤S4.3:输出增强后的人脸图像质量分数,采用三种不同的方式来测量原始高质量人脸图像和增强后人脸图像之间的相似性,分别是MSE、SSIM以及判别器输出的分数;
步骤S5:测试生成对抗网络,包括以下步骤:
步骤S5.1:初始人脸质量评分,使用MTCNN作为人脸检测器来检测测试集中每张图像中的人脸,使用该模型输出检测分数;
步骤S5.2:人脸图像增强,将测试集中的每张人脸裁剪并调整为32×32×3像素,将其输入生成对抗网络,生成器的输出是质量增强后的人脸图像;
步骤S5.3:质量增强效果评估,将初始人脸和质量增强后的人脸输入判别器,判别器给出的分数即作为质量增强效果,将增强后的人脸输入MTCNN模型进行人脸检测,输出检测分数,对比质量增强前后的检测分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210481855.5A CN114913086B (zh) | 2022-05-05 | 2022-05-05 | 基于生成对抗网络的人脸图像质量增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210481855.5A CN114913086B (zh) | 2022-05-05 | 2022-05-05 | 基于生成对抗网络的人脸图像质量增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114913086A true CN114913086A (zh) | 2022-08-16 |
CN114913086B CN114913086B (zh) | 2023-05-02 |
Family
ID=82765803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210481855.5A Active CN114913086B (zh) | 2022-05-05 | 2022-05-05 | 基于生成对抗网络的人脸图像质量增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114913086B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116311568A (zh) * | 2023-05-16 | 2023-06-23 | 广州铭创通讯科技有限公司 | 一种基于etc的停车场人脸识别快速扣费方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN107977932A (zh) * | 2017-12-28 | 2018-05-01 | 北京工业大学 | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 |
WO2019015466A1 (zh) * | 2017-07-17 | 2019-01-24 | 广州广电运通金融电子股份有限公司 | 人证核实的方法及装置 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN110675328A (zh) * | 2019-08-02 | 2020-01-10 | 北京巨数数字技术开发有限公司 | 基于条件生成对抗网络的低照度图像增强方法及装置 |
CN110706157A (zh) * | 2019-09-18 | 2020-01-17 | 中国科学技术大学 | 一种基于身份先验生成对抗网络的人脸超分辨率重建方法 |
US20200286208A1 (en) * | 2019-03-08 | 2020-09-10 | International Business Machines Corporation | Neural network based enhancement of intensity images |
WO2021056969A1 (zh) * | 2019-09-29 | 2021-04-01 | 中国科学院长春光学精密机械与物理研究所 | 超分辨率图像重构方法和装置 |
CN113674191A (zh) * | 2021-08-23 | 2021-11-19 | 中国人民解放军国防科技大学 | 一种基于条件对抗网络的弱光图像增强方法和装置 |
-
2022
- 2022-05-05 CN CN202210481855.5A patent/CN114913086B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
WO2019015466A1 (zh) * | 2017-07-17 | 2019-01-24 | 广州广电运通金融电子股份有限公司 | 人证核实的方法及装置 |
CN107977932A (zh) * | 2017-12-28 | 2018-05-01 | 北京工业大学 | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
US20200286208A1 (en) * | 2019-03-08 | 2020-09-10 | International Business Machines Corporation | Neural network based enhancement of intensity images |
CN110675328A (zh) * | 2019-08-02 | 2020-01-10 | 北京巨数数字技术开发有限公司 | 基于条件生成对抗网络的低照度图像增强方法及装置 |
CN110706157A (zh) * | 2019-09-18 | 2020-01-17 | 中国科学技术大学 | 一种基于身份先验生成对抗网络的人脸超分辨率重建方法 |
WO2021056969A1 (zh) * | 2019-09-29 | 2021-04-01 | 中国科学院长春光学精密机械与物理研究所 | 超分辨率图像重构方法和装置 |
CN113674191A (zh) * | 2021-08-23 | 2021-11-19 | 中国人民解放军国防科技大学 | 一种基于条件对抗网络的弱光图像增强方法和装置 |
Non-Patent Citations (4)
Title |
---|
DWARIKANATH MAHAPATRA,ET AL.: "Image super-resolution using progressive generative adversarial networks for medical image analysis", 《COMPUTERIZED MEDICAL IMAGING AND GRAPHICS》 * |
PENGCHENG LUO,ET AL.: "Logo Based on Improved Generative Countermeasure Network Image Super Resolution Reconstruction Method", 《JOURNAL OF PHYSICS:CONFERENCE SERIES》 * |
张三友: "基于生成对抗网络的图像超分辨率重建方法研究", 《中国博士学位论文全文数据库》 * |
郝韵: "基于生成对抗网络的视频监控图像增强方法研究", 《公安海警学院学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116311568A (zh) * | 2023-05-16 | 2023-06-23 | 广州铭创通讯科技有限公司 | 一种基于etc的停车场人脸识别快速扣费方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114913086B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160297B (zh) | 基于残差注意机制时空联合模型的行人重识别方法及装置 | |
CN109684925B (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
CN108038452B (zh) | 一种基于局部图像增强的家电手势快速检测识别方法 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
Singh et al. | Muhavi: A multicamera human action video dataset for the evaluation of action recognition methods | |
US20210019872A1 (en) | Detecting near-duplicate image | |
CN105930822A (zh) | 一种人脸抓拍方法及系统 | |
CN109684924A (zh) | 人脸活体检测方法及设备 | |
CN112052831B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
KR100735549B1 (ko) | 영상의 피부색을 변환하는 영상 처리 방법 및 장치 | |
CN109190446A (zh) | 基于三元组聚焦损失函数的行人再识别方法 | |
CN109086675B (zh) | 一种基于光场成像技术的人脸识别及攻击检测方法及其装置 | |
CN111402237B (zh) | 基于时空级联自编码器的视频图像异常检测方法及系统 | |
US11361534B2 (en) | Method for glass detection in real scenes | |
CN112084927A (zh) | 一种融合多种视觉信息的唇语识别方法 | |
CN112926522B (zh) | 一种基于骨骼姿态与时空图卷积网络的行为识别方法 | |
CN113592911A (zh) | 表观增强深度目标跟踪方法 | |
CN114463619B (zh) | 基于集成融合特征的红外弱小目标检测方法 | |
CN114913086A (zh) | 基于生成对抗网络的人脸图像质量增强方法 | |
JP2004213567A (ja) | 画像学習装置及びその学習方法 | |
CN111160100A (zh) | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 | |
CN108921872B (zh) | 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法 | |
CN114613006A (zh) | 一种远距离手势识别方法及装置 | |
CN112183287A (zh) | 一种移动机器人在复杂背景下的人数统计方法 | |
Liu et al. | Design of face detection and tracking system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |