WO2019015466A1 - 人证核实的方法及装置 - Google Patents

人证核实的方法及装置 Download PDF

Info

Publication number
WO2019015466A1
WO2019015466A1 PCT/CN2018/093784 CN2018093784W WO2019015466A1 WO 2019015466 A1 WO2019015466 A1 WO 2019015466A1 CN 2018093784 W CN2018093784 W CN 2018093784W WO 2019015466 A1 WO2019015466 A1 WO 2019015466A1
Authority
WO
WIPO (PCT)
Prior art keywords
network
face image
natural light
document
sample
Prior art date
Application number
PCT/CN2018/093784
Other languages
English (en)
French (fr)
Inventor
梁添才
黎蕴玉
徐俊
章烈剽
陈�光
许丹丹
Original Assignee
广州广电运通金融电子股份有限公司
广州广电卓识智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 广州广电运通金融电子股份有限公司, 广州广电卓识智能科技有限公司 filed Critical 广州广电运通金融电子股份有限公司
Publication of WO2019015466A1 publication Critical patent/WO2019015466A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the invention relates to the field of face recognition technology, in particular to a method, a device and the like for verifying a person's identity.
  • the verification problem of the human witness belongs to heterogeneous face recognition, which means judging whether the lower resolution document photo face and the higher resolution natural illumination face image match.
  • the biggest problem of the verification system is that the verification accuracy is low. Based on the traditional heterogeneous face recognition method, the difference of the modality can only be verified from the two aspects of feature extraction and similarity measurement. Applicable to human verification.
  • the embodiment of the invention provides a method and a device for verifying a person's identity, which can effectively solve the problem of low verification accuracy of the human witness caused by modal heterogeneity.
  • One aspect of the present invention provides a method for verifying a person's identity, including:
  • the witness verification is performed according to the comparison result.
  • An aspect of the present invention provides an apparatus for verifying a person's identity, comprising:
  • the face image collecting module is configured to obtain the image of the face of the document in the photo ID, and collect the natural light face image of the user;
  • a face image reconstruction module configured to input the document face image into a pre-trained generation confrontation network, and obtain a reconstructed face image corresponding to the document face image according to the output of the generated confrontation network; wherein Generating a confrontation network for adding preset natural light attribute information to the input document face image, and the resolution of the output reconstructed face image is higher than the resolution of the document face image;
  • the person verification module is configured to compare the reconstructed face image and the natural light face image, and perform witness verification according to the comparison result.
  • the invention provides a computer device comprising a memory, a processor, and a computer program stored on the memory and operative on the processor, the processor performing the steps of the method described above when the program is executed.
  • the image of the face of the document in the photo ID is obtained, and the natural light face image of the user is collected; and the face image of the certificate is input into the pre-trained generated confrontation network, and the output is generated according to the output of the generated confrontation network.
  • a reconstructed face image corresponding to the document face image wherein the generating confrontation network is configured to add preset natural light attribute information to the input document face image, and the output reconstructed face image has a higher resolution than the The resolution of the document face image; finally, the witness verification is performed by comparing the reconstructed face image and the natural light face image.
  • the super-resolution reconstruction of the face image of the document (converting the low-resolution image into a high-resolution image) can be realized, and the document photo is converted into the mode of natural illumination. Furthermore, the problem of verification of heterogeneous human witnesses is transformed into a general face recognition problem, which effectively improves the accuracy of human witness verification.
  • FIG. 1 is a schematic flow chart of a method for verification of a person's authentication according to an embodiment
  • FIG. 2 is a schematic structural diagram of a generator network according to an embodiment
  • FIG. 3 is a schematic flow chart of generating an anti-network retraining according to an embodiment
  • FIG. 4 is a schematic structural diagram of an apparatus for verifying a person's identity according to an embodiment.
  • FIG. 1 is a schematic flowchart of a method for verifying a person's card in an embodiment; as shown in FIG. 1, the method for verifying a person in the embodiment includes the following steps:
  • S11 Obtain an image of the face of the document in the photo ID, and collect a natural light face image of the user;
  • the document involved in the embodiment of the present invention may be any document with a face image, such as an ID card, a passport, a driver's license, a pass or a corporate work card.
  • the photo of the certificate may be a photo attached to the document, or may be a photo printed on the document, such as a second generation ID card.
  • the photo of the document may be black and white or color.
  • the natural light face image refers to an image collected in real time in the current environment, and includes images collected in real time in an outdoor natural light environment, and images collected in real time in an indoor light environment.
  • Generative Adversarial Networks is a generation model whose basic idea is to obtain many training samples from the training library to learn the probability distribution generated by these training cases. Its implementation is to let the two network models compete with each other to play a game of gambling.
  • One of them is called a generator network (or generator, generation network), which is used to generate an image that looks 'natural', and is required to be as consistent as possible with the original data distribution; the other is called a discriminator network (or discriminator, discriminant network), Used to determine if a given image looks 'natural', in other words, whether it was generated by a human (machine).
  • the goal of the generator network is to spoof the discriminator network, and the target of the discriminator network is not the generator network.
  • the capabilities of the two increase each other until the artificial samples generated by the generator network appear to be no different from the original samples.
  • the resolution of the face image of the document collected from the document is relatively low.
  • the network can perform high-resolution reconstruction on the face image of the low-divided document, and add preset natural light attribute information. Fill in the missing pixel parts of the original image.
  • the resolution of the reconstructed face image generated against the network output is higher than the resolution of the document face image.
  • the modality of the reconstructed face image generated against the network is consistent with the modality of the corresponding natural light face image.
  • step S13 is ordinary face image recognition, rather than heterogeneous face image recognition, on the one hand, the recognition complexity is reduced. On the other hand, it is also beneficial to improve the accuracy of recognition.
  • the document photo can be converted into a natural illumination mode under the premise of retaining the original document image information, thereby converting the heterogeneous person verification problem into general face image recognition.
  • the problem effectively improves the accuracy of the verification of the person.
  • the step S11 includes: performing face detection and alignment after collecting the photo ID in the evidence, and cutting out the face region of the facial features area to obtain the document face image.
  • the natural light human face image is preferably an image of a frontal high definition.
  • the generating countermeasure network employed in the above step S12 comprises a generator network and a discriminator network.
  • the generator network includes a 6-layer residual convolution network structure, as shown in FIG. 2, wherein the first 3 layers are convolution layers, the last 3 layers are reverse convolution layers, and the last reverse convolution layer output. Rebuild the face image.
  • the specific network configuration is, for example, in the 6-layer residual convolution network structure, each 3 ⁇ 3 convolution layer is connected with a batch normalization layer (abbreviated as BN layer) and a ReLU activation function layer, so that each convolution layer The inputs remain the same distribution and the overall training speed of the network is fast.
  • This network structure not only makes the network easier to train, but also preserves and reconstructs high resolution images using the image information of the input document face image.
  • the pixel size of the reconstructed image output by the generator network coincides with the pixel size of the natural light face image acquired in step S11.
  • the discriminator network includes a Light CNN residual network structure that facilitates enhanced feature robustness and reduced network parameters.
  • the Network Feature Network structure in Light CNN is used, and the Max Feature Map operation is utilized as an activation function.
  • Advantages of using the Network in Network network architecture include better local abstraction, smaller global Overfitting, and fewer network parameters.
  • the method further includes the step of pre-training the generated confrontation network, including training of the generator network and training of the discriminator network.
  • the training method may be: firstly pre-training the generated confrontation network based on the ImageNet database; then re-training the pre-trained generated confrontation network based on the preset human witness sample library until the generated confrontation network satisfies the preset condition .
  • the ImageNet database is currently the largest database for image recognition in the world;
  • the human witness sample library includes a plurality of document photo samples and natural light face image samples corresponding to each document photo sample.
  • retraining the pre-trained generated confrontation network based on the preset human witness sample library includes: training the generator network in the generated confrontation network and training the discriminator network in the generated confrontation network The two training processes interact to make the two networks gradually perfect to meet the network model of human verification requirements.
  • the process of generating a generator network training in the confrontation network includes: obtaining a document photo sample and a corresponding natural light face image sample from the human witness sample library, and obtaining a document face image sample from the certificate photo sample, Using the document face image sample as an input to the generator network, training the network parameters of the generator network based on the square loss function until the square loss function is minimized; the square loss function is a natural light face image sample and generator A function of the pixel-based squared difference of the reconstructed face image of the network output.
  • the process of generating the discriminator network training in the confrontation network comprises: using the natural light face image sample and the reconstructed face image output by the generator network as an input of a discriminator network, and training the discriminator based on the perceptual loss function Network parameters of the network and network parameters of the generator network; the perceptual loss function is a function of the probability of discriminating the reconstructed face image output by the generator network as a true natural light face image.
  • the training process for generating a confrontation network can be seen in FIG. It is assumed that I y is a high-resolution natural light face image sample, I x is a low-resolution document face image sample, and I s is a reconstructed face image; wherein the reconstructed face image and the natural light face image sample have the same pixel size .
  • the lower resolution document face image sample I x is input to the generator network, and the reconstructed face image I s of the generator network output is paired with the generator network.
  • the function model corresponding to the generator network is In an alternative embodiment, the objective function of the network parameters of the generator network is trained for:
  • ⁇ G represents the network parameter of the generator network
  • l s is the square loss function
  • N is the total number of samples participating in the training certificate
  • I y is the natural light face image sample
  • I x is the document face image sample
  • I s is the document holder. The reconstructed face image corresponding to the face image sample.
  • the generator network training uses a loss function based on the squared loss of pixels (MSE), namely:
  • r is the ratio of the size of the natural light face image to the document face image
  • W is the pixel of the document face image in the width direction
  • H is the pixel of the document face image in the length direction.
  • the generator network output reconstructed face image I s and the high resolution natural light face image sample I y are input to the discriminator network to train the discriminator network.
  • the function model corresponding to the discriminator network is represented as ⁇ D represents the network parameters of the discriminator network, and its task is to determine the generator network.
  • Generated reconstructed image (ie I s ) is true, solve the "very small maximal game" problem, the objective function can be expressed as:
  • I y ⁇ p data (I y ) denotes that the probability distribution of the natural light face image sample I y satisfying the high resolution image is p data (I y );
  • I x ⁇ p G (I x ) The document face image sample I x satisfies the generator with a probability distribution of p G (I y );
  • log represents a logarithm operation;
  • Discriminator network Generator network Output reconstructed image The probability of discriminating as a true natural light face image.
  • Training discriminator Maximize the probability of entering the instance and generating the correct label for the sample, while training the generator minimize
  • p data p G
  • the generator network can fully fit the probability distribution of the high resolution image.
  • the discriminator network will reconstruct the image of the generator network output
  • the discriminator network outputs 1 if it is judged to be the probability of a true natural light face image, otherwise, -1 is output.
  • the discriminator network is optimized according to the discriminant result of the discriminator network. That is, the objective function of the discriminator network is a function related to the discriminant result of the discriminator network.
  • Perceptual loss function Optimize the objective function of the discriminator network:
  • Discriminator network Generator network Output reconstructed image The probability of discriminating as a true natural light face image.
  • the training for generating the confrontation network ends.
  • the original document face image collected by the network can be reconstructed based on the trained generation confrontation network, and then the authentication and verification are performed based on the reconstructed face image and the natural light face image collected in real time, thereby improving the accuracy of the verification.
  • the whole task of generating a confrontation network is like a game game.
  • the generator network should make the discriminator network confuse the authenticity of the reconstructed image, and the target of the discriminator network is to distinguish the authenticity of the image as much as possible. Therefore, the training method for generating the anti-network is different from the conventional method of minimizing the pixel error, and the resulting generated confrontation network can not only effectively retain the high-frequency information of the input original image, but also generate high similarity through perceptual optimization. Reconstructed image.
  • the verification method of the human witness in the above embodiment can effectively solve the image heterogeneity problem in the verification of the human identity verification.
  • the deep training can be used to generate the super-resolution reconstruction for the second generation ID card.
  • the natural light attribute information (such as the brightness, light and color of each area of the face) is compensated while retaining the original identity photo information, and the high-resolution second-generation ID face reconstruction image is output. Then compare with the collected natural light face image, and use the existing face recognition technology to effectively verify the identity verification of the second generation ID card.
  • the present invention also provides a device for verifying a person's identity, which can be used to perform the above method of verification of a person's identity.
  • a device for verifying a person's identity which can be used to perform the above method of verification of a person's identity.
  • FIG. 4 is a schematic structural diagram of a device for verifying a person's card according to an embodiment of the present invention.
  • the device for verifying a person's identity includes a face image capturing module 410 and a face image reconstructing module 420.
  • the person verification module 430, each module is as follows:
  • the face image collecting module 410 is configured to obtain a document face image in the ID photo, and collect a natural light face image of the user.
  • the face image reconstruction module 420 is configured to input the document face image into a pre-trained generation confrontation network, and obtain a reconstructed face image corresponding to the document face image according to the output of the generated confrontation network;
  • the generation confrontation network is configured to add preset natural light attribute information to the input document face image, and the resolution of the output reconstructed face image is higher than the resolution of the document face image.
  • the person verification module 430 is configured to compare the reconstructed face image and the natural light face image, and perform witness verification according to the comparison result.
  • a network training module is also included for training the generated confrontation network.
  • the network training module is specifically configured to perform pre-training on the generated confrontation network based on the ImageNet database; and retrain the pre-trained generated confrontation network based on the preset human witness sample library until a generated confrontation network that satisfies the preset condition is obtained.
  • the generating confrontation network comprises a generator network and a discriminator network;
  • the generator network comprises a 6-layer residual convolution network structure, wherein the first 3 layers are convolution layers, and the last 3 layers are reverse convolution layers The last reverse convolutional layer output reconstructs the face image.
  • the discriminator network includes a Light CNN residual network structure. The network structure can effectively speed up the training process of generating a confrontation network and shorten the training time.
  • the network training module includes: a first training unit and a second training unit.
  • the first training unit is configured to generate a training network for the generator network in the confrontation network.
  • the specific training method includes: obtaining a document photo sample and a corresponding natural light face image sample from the human witness sample database, and using the sample of the document as a sample
  • An input to the generator network trains network parameters of the generator network based on a squared loss function; the squared loss function is a function of a pixel-based squared difference of the reconstructed face image of the natural light face image sample and the generator network output.
  • the second training unit is configured to generate a discriminator network training in the confrontation network, where the specific training manner includes: using the natural light face image sample and the reconstructed face image output by the generator network as an input of a discriminator network, Training a network parameter of the discriminator network and a network parameter of the generator network based on a perceptual loss function; the perceptual loss function is a function of discriminating a reconstructed face image output by a generator network as a probability of a real high resolution image .
  • the training process for generating the anti-network may refer to the specific process shown in FIG. 3 as described in the above method embodiment.
  • each functional module is merely an example, and the actual application may be considered according to requirements, for example, for the configuration requirements of the corresponding hardware or the convenience of implementation of the software.
  • the above-mentioned function assignment is completed by different functional modules, that is, the internal structure of the device verified by the person verification is divided into different functional modules to complete all or part of the functions described above.
  • Each function module can be implemented in the form of hardware or in the form of a software function module.
  • the storage medium may be further configured with a computer device, wherein the computer device further includes a processor, and when the processor executes the program in the storage medium, all of the embodiments of the foregoing methods can be implemented. Or part of the steps.
  • the storage medium may be a magnetic disk, an optical disk, a read-only memory (ROM), or a random access memory (RAM).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人证核实的方法及装置。所述方法包括:获取证件照中的证件人脸图像,采集用户的自然光人脸图像;将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率;比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。本发明能够有效提高认证核实的准确度。

Description

人证核实的方法及装置 技术领域
本发明涉及人脸识别技术领域,特别是涉及人证核实的方法、装置及其他。
背景技术
随着人脸识别技术的快速发展,人证核实系统也得到广泛关注,在安防、银行等实际应用场景的需求剧增。在异构人脸识别技术中,模态的不同使人脸图像差异巨大,是造成难以精确判别的主要原因。人证核实问题属于异构人脸识别,是指判断较低分辨率的证件照人脸图像与较高分辨率的自然光照人脸图像是否匹配。
人证核实系统的最大问题在于核实的准确度较低,而基于传统的异构人脸识别方法,仅能从特征提取和相似度度量两个方面消除模态的差异性进行核实,无法较好的适用于人证核实。
发明内容
基于此,本发明实施例提供人证核实的方法及装置,能够有效解决模态异构导致的人证核实准确性低的问题。
本发明一方面提供人证核实的方法,包括:
获取证件照中的证件人脸图像,采集用户的自然光人脸图像;
将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率;
比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。
本发明一方面提供一种人证核实的装置,包括:
人脸图像采集模块,用于获取证件照中的证件人脸图像,采集用户的自然光人脸图像;
人脸图像重建模块,用于将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率;
人证核实模块,用于比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。
本发明一方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述所述方法的步骤。
上述技术方案,获取证件照中的证件人脸图像,采集用户的自然光人脸图像;通过将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率;最后通过比对所述重建人脸图像和所述自然光人脸图像进行人证核实。由此可在保留原始证件照图像信息的前提下,实现证件照人脸图像的超分辨率重建(将低分辨率图像转化为高分辨率图像),将证件照转换为自然光照的模态,进而将异构人证核实问题转化为一般的人脸识别问题,有效提高了人证核实的准确度。
附图说明
图1为一实施例的人证核实的方法的示意性流程图;
图2为一实施例的生成器网络的结构示意图;
图3为一实施例的生成对抗网络再训练的示意性流程图;
图4为一实施例的人证核实的装置的示意性结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一实施例的人证核实的方法的示意性流程图;如图1所示,本实施例中的人证核实的方法包括步骤:
S11,获取证件照中的证件人脸图像,采集用户的自然光人脸图像;
可以理解的,本发明实施例中涉及的证件可为任何附带有人脸图像的证件,例如:身份证、护照、驾驶证、通行证或者企业工卡等。所述证件照可以是粘贴在证件中的照片,也可以是印刷在证件上的照片,例如二代身份证。此外,所述证件照既可以是黑白的,也可以是彩色。
需要说明的,所述自然光人脸图像,指的是在当前环境中实时采集的图像,既包括室外自然光环境下实时采集的图像,也包括室内光环境下实时采集的图像。
S12,将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;
生成对抗网络(Generative Adversarial Networks,简称GANs),是一种生成模型,其基本思想是从训练库里获取很多训练样本,从而学习这些训练案例生成的概率分布。它的实现方法是让两个网络模型相互竞争,进行一场博弈游戏。其中一个叫做生成器网络(或者生成器、生成网络),用于生成看起来‘自然’的图像,要求与原始数据分布尽可能一致;另一个叫做判别器网络(或者判别器、判别网络),用于判断给定图像是否看起来‘自然’,换句话说,是否像是人为(机器)生成的。生成器网络的目标为‘骗’过判别器网络,判别器网络的目标为不上生成器网络的当。当两组网络模型不断训练,生成器网络不断生成新的结果进行尝试,两者的能力互相提高,直到生成器网络生成的人造样本看起来与原始样本没有区别。
通常从证件中采集到的证件人脸图像的分辨率比较低,通过本步骤的生成对抗网络可对低分比率的证件人脸图像进行高分辨率重建,添加预设的自然光属性信息,还可补齐原图像中缺失的像素部分。
在本发明实施例中,所述生成对抗网络输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率。理想情况下,所述生成对抗网络得到的重建人脸图像的模态与对应的自然光人脸图像的模态相一致。
S13,比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。
基于上述步骤,已经将证件人脸图像进行了重建(即模态转换),因此步骤S13即为普通的人脸图像识别,而非异构人脸图像识别,一方面降低了识别的复杂度,另一方面,也有利于提高识别的准确度。
通过上述实施例的人证核实的方法,可在保留原始证件照图像信息的前提下,将证件照转换为自然光照的模态,进而将异构人证核实问题转化为一般的 人脸图像识别问题,有效提高了人证核实的准确度。
在一可选实施例中,在上述步骤S11中包括:采集证据中的证件照之后进行人脸检测、对齐,裁剪出人脸五官区域的人脸区域,得到证件人脸图像。所述自然光人脸图像优选为正面高清的图像。
在一可选实施例中,上述步骤S12中采用的生成对抗网络包括生成器网络和判别器网络。其中,所述生成器网络包括6层残差卷积网络结构,如图2所示,其中前3层为卷积层,后3层为反向卷积层,最后一个反向卷积层输出重建人脸图像。具体网络构成例如:在所述6层残差卷积网络结构中,每个3×3卷积层后都连接上batch normalization层(简称BN层)和ReLU激活函数层,使得每个卷积层的输入保持相同分布,并且网络整体训练速度快。从前五层每层提取64个feature maps,stride设为1,pad设为0,最后一个反向卷积层用于重建图像。此网络结构不仅能使网络更容易训练,同时保留和利用输入的证件人脸图像的图像信息重建高分辨率图像。优选地,该生成器网络输出的重建图像的像素大小和步骤S11中采集的自然光人脸图像的像素大小一致。所述判别器网络包括Light CNN残差网络结构,该网络结构有利于增强特征鲁棒性和减少网络参数。优选地,使用Light CNN中的Network in Network网络结构,利用Max Feature Map操作作为激活函数。采用Network in Network网络结构的优点包括:更好的局部抽象、更小的全局Overfitting以及更少的网络参数。
在一可选实施例中,还包括预先训练生成对抗网络的步骤,包括对生成器网络的训练和对判别器网络的训练。训练的方式可为:首先基于ImageNet数据库对生成对抗网络进行预训练;然后再基于预设的人证样本库对经过预训练的生成对抗网络进行再训练,直到得到满足预设条件的生成对抗网络。其中,ImageNet数据库是目前世界上图像识别最大的数据库;所述人证样本库中包括 多个证件照样本以及各证件照样本对应的自然光人脸图像样本。通过两个阶段不同数据库的训练,能够得到符合人证核实需求的生成对抗网络,以将低分辨率的证件人脸图像转换为高分辨率的重建人脸图像。
在一可选实施例中,基于预设的人证样本库对经过预训练的生成对抗网络进行再训练包括:对生成对抗网络中的生成器网络训练和对生成对抗网络中的判别器网络训练,两个训练过程相互影响,使得两个网络逐渐完善至符合人证核实需求的网络模型。
其中,对生成对抗网络中的生成器网络训练的过程包括:从人证样本库中获取证件照样本及其对应的自然光人脸图像样本,从所述证件照样本中得到证件人脸图像样本,将证件人脸图像样本作为生成器网络的输入,基于平方损失函数训练所述生成器网络的网络参数,直到所述平方损失函数最小化;所述平方损失函数为自然光人脸图像样本与生成器网络输出的重建人脸图像的基于像素的平方差的函数。
其中,对生成对抗网络中的判别器网络训练的过程包括:将所述自然光人脸图像样本以及生成器网络输出的重建人脸图像作为判别器网络的输入,基于感知损失函数训练所述判别器网络的网络参数和所述生成器网络的网络参数;所述感知损失函数为将生成器网络输出的重建人脸图像判别为真实自然光人脸图像的概率的函数。
在一优选实施例中,生成对抗网络的训练过程可参考图3所示。假设I y为高分辨率的自然光人脸图像样本,I x为低分辨率的证件人脸图像样本,I s为重建人脸图像;其中重建人脸图像与自然光人脸图像样本的像素大小相同。生成对抗网络由生成器网络
Figure PCTCN2018093784-appb-000001
和判别器网络
Figure PCTCN2018093784-appb-000002
组成,θ表示生成对抗网络中待训练的网络参数。
向生成器网络输入较低分辨率的证件人脸图像样本I x,生成器网络输出的重建人脸图像I s对生成器网络。生成器网络对应的函数模型为
Figure PCTCN2018093784-appb-000003
在一可选实施例中,训练所述生成器网络的网络参数的目标函数
Figure PCTCN2018093784-appb-000004
为:
Figure PCTCN2018093784-appb-000005
θ G表示生成器网络的网络参数,l s为平方损失函数,N为参与训练证件照样本的总数,I y表示自然光人脸图像样本,I x表示证件人脸图像样本,I s表示证件人脸图像样本对应的重建人脸图像。
优选地,所述生成器网络训练中使用的是基于像素的平方损失(MSE)的损失函数,即:
Figure PCTCN2018093784-appb-000006
其中,r表示自然光人脸图像与证件人脸图像的大小比值;W表示证件人脸图像在宽度方向的像素,H表示证件人脸图像在长度方向的像素。
将生成器网络输出重建人脸图像I s和高分辨率的自然光人脸图像样本I y输入判别器网络,对判别器网络进行训练。所述判别器网络对应的函数模型表示为
Figure PCTCN2018093784-appb-000007
θ D表示判别器网络的网络参数,其任务是判断生成器网络
Figure PCTCN2018093784-appb-000008
产生的重建图像
Figure PCTCN2018093784-appb-000009
(即I s)是否为真,解决“极小极大博弈”问题,目标函数可表示为:
Figure PCTCN2018093784-appb-000010
其中,Ε表示数学期望,I y~p data(I y)表示自然光人脸图像样本I y满足高分辨率图像的概率分布为p data(I y);I x~p G(I x)表示证件人脸图像样本I x满足生成器的概率分布为p G(I y);log表示对数运算;
Figure PCTCN2018093784-appb-000011
是将自然光人脸图像样本I y判别为真实自然光人脸图像的概率;
Figure PCTCN2018093784-appb-000012
表示判别器网络
Figure PCTCN2018093784-appb-000013
将生成器网络
Figure PCTCN2018093784-appb-000014
输出的重建图像
Figure PCTCN2018093784-appb-000015
判别为真实自然光人脸图像的概率。
训练判别器
Figure PCTCN2018093784-appb-000016
最大化输入实例和生成样本的正确标签的概率,同时训练生成器
Figure PCTCN2018093784-appb-000017
最小化
Figure PCTCN2018093784-appb-000018
当全局最优时,有p data=p G,即生成器网络能完全拟合高分辨率图像的概率分布。
优选地,若判别器网络将生成器网络输出的重建图像
Figure PCTCN2018093784-appb-000019
判别为真实自然光人脸图像的概率,则判别器网络输出1,否则,输出-1。根据判别器网络的判别结果优化判别器网络。即优化判别器网络的目标函数为判别器网络的判别结果相关的函数。
由于生成器网络训练采用的MSE损失函数会一定程度丢失输入图像的高频信息,造成模糊现象,因此在判别网络中加入感知损失函数,从感知的角度优化判别器网络。即采用感知损失函数
Figure PCTCN2018093784-appb-000020
优化判别器网络的目标函数:
Figure PCTCN2018093784-appb-000021
其中,
Figure PCTCN2018093784-appb-000022
表示判别器网络
Figure PCTCN2018093784-appb-000023
将生成器网络
Figure PCTCN2018093784-appb-000024
输出的重建图像
Figure PCTCN2018093784-appb-000025
判别为真实自然光人脸图像的概率。
当生成器网络
Figure PCTCN2018093784-appb-000026
和判别器网络
Figure PCTCN2018093784-appb-000027
均训练完成时,所述生成对抗网络的训练结束。在进行人证核实时,可基于训练好的生成对抗网络将采集的原始证件人脸图像进行重建,进而基于重建人脸图像和实时采集的自然光人脸图像进行认证核实,提高核实的准确度。
可见,整个生成对抗网络的任务就像一场博弈游戏,生成器网络要令判别器网络混淆重建图像的真伪性,而判别器网络的目标又是尽可能分辨图像的真实性。因此对生成对抗网络的训练方式不同于常规最小化像素误差的方式,由此得到的生成对抗网络不仅能有效保留输入的原始图像的高频信息,同时还能通过感知优化的方式产生高相似度的重建图像。
上述实施例的人证核实的方法可有效解决人证核实中的图像异构问题,以 二代身份证的人证核实为例,通过深度训练可得到针对二代身份证超分辨率重建的生成对抗网络,在保留原始身份证件照信息的情况下补偿自然光属性信息(例如人脸各区域的明暗度、光照和色彩等),输出高分辨率的二代身份证人脸重建图像。随后与采集的自然光照人脸图像进行比对,利用现有人脸识别技术,可有效进行二代身份证的人证核实。
需要说明的是,对于前述的各方法实施例,为了简便描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。
基于与上述实施例中的人证核实的方法相同的思想,本发明还提供人证核实的装置,该装置可用于执行上述人证核实的方法。为了便于说明,人证核实的装置实施例的结构示意图中,仅仅示出了与本发明实施例相关的部分,本领域技术人员可以理解,图示结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
图4为本发明一实施例的人证核实的装置的示意性结构图,如图4所示,本实施例的人证核实的装置包括:人脸图像采集模块410、人脸图像重建模块420以及人证核实模块430,各模块详述如下:
所述人脸图像采集模块410,用于获取证件照中的证件人脸图像,采集用户的自然光人脸图像.
所述人脸图像重建模块420,用于将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率。
所述人证核实模块430,用于比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。
在一可选实施例中,还包括网络训练模块,用于训练生成对抗网络。该网络训练模块具体用于,基于ImageNet数据库对生成对抗网络进行预训练;基于预设的人证样本库对经过预训练的生成对抗网络进行再训练,直到得到满足预设条件的生成对抗网络。
优选地,所述生成对抗网络包括生成器网络和判别器网络;所述生成器网络包括6层残差卷积网络结构,其中前3层为卷积层,后3层为反向卷积层,最后一个反向卷积层输出重建人脸图像。所述判别器网络包括Light CNN残差网络结构。该网络结构能有效加快生成对抗网络的训练过程,缩短训练时间。
在一可选实施例中,所述网络训练模块包括:第一训练单元和第二训练单元。
所述第一训练单元,用于对生成对抗网络中的生成器网络训练,具体训练方式包括:从人证样本库中获取证件照样本及其对应的自然光人脸图像样本,将证件照样本作为生成器网络的输入,基于平方损失函数训练所述生成器网络的网络参数;所述平方损失函数为自然光人脸图像样本与生成器网络输出的重建人脸图像的基于像素的平方差的函数。
所述第二训练单元,用于对生成对抗网络中的判别器网络训练,具体训练方式包括:将所述自然光人脸图像样本以及生成器网络输出的重建人脸图像作为判别器网络的输入,基于感知损失函数训练所述判别器网络的网络参数和所述生成器网络的网络参数;所述感知损失函数为将生成器网络输出的重建人脸图像判别为真实高分辨率图像的概率的函数。
优选地,生成对抗网络的训练过程可参考图3所示具体过程可参照上述方 法实施例所述。
需要说明的是,上述示例的人证核实的装置的实施方式中,各模块/单元之间的信息交互、执行过程等内容,由于与本发明前述方法实施例基于同一构思,其带来的技术效果与本发明前述方法实施例相同,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
此外,上述示例的人证核实的装置的实施方式中,各功能模块的逻辑划分仅是举例说明,实际应用中可以根据需要,例如出于相应硬件的配置要求或者软件的实现的便利考虑,将上述功能分配由不同的功能模块完成,即将所述人证核实的装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。其中各功能模既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,作为独立的产品销售或使用。所述程序在执行时,可执行如上述各方法的实施例的全部或部分步骤。此外,所述存储介质还可设置与一种计算机设备中,所述计算机设备中还包括处理器,所述处理器执行所述存储介质中的程序时,能够实现上述各方法的实施例的全部或部分步骤。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上所述实施例仅表达了本发明的几种实施方式,不能理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本 发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (11)

  1. 一种人证核实的方法,其特征在于,包括:
    获取证件照中的证件人脸图像,采集用户的自然光人脸图像;
    将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率;
    比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。
  2. 根据权利要求1所述的人证核实的方法,其特征在于,还包括:训练生成对抗网络的步骤,该步骤包括:
    基于ImageNet数据库对生成对抗网络进行预训练;
    基于预设的人证样本库对经过预训练的生成对抗网络进行再训练;其中,所述人证样本库中包括多个证件照样本以及各证件照样本对应的自然光人脸图像样本。
  3. 根据权利要求2所述的人证核实的方法,其特征在于,所述生成对抗网络包括生成器网络和判别器网络;
    所述生成器网络包括6层残差卷积网络结构,其中前3层为卷积层,后3层为反向卷积层,最后一个反向卷积层输出重建人脸图像;
    所述判别器网络包括Light CNN残差网络结构。
  4. 根据权利要求2所述的人证核实的方法,其特征在于,所述基于预设的人证样本库对经过预训练的生成对抗网络进行再训练,包括:
    基于预设的人证样本库对生成对抗网络中的生成器网络训练,具体包括:
    从人证样本库中获取证件照样本及其对应的自然光人脸图像样本,从所述证件照样本中得到证件人脸图像样本,将证件人脸图像样本作为生成器网络的输入,基于平方损失函数训练所述生成器网络的网络参数;所述平方损失函数为自然光人脸图像样本与生成器网络输出的重建人脸图像的基于像素的平方差的函数;
    基于预设的人证样本库对生成对抗网络中的判别器网络训练,具体包括:
    将所述自然光人脸图像样本以及生成器网络输出的重建人脸图像作为判别器网络的输入,基于感知损失函数训练所述判别器网络的网络参数和所述生成器网络的网络参数;所述感知损失函数为判别器网络将生成器网络输出的重建人脸图像判别为真实自然光人脸图像的概率的函数。
  5. 根据权利要求4所述的人证核实的方法,其特征在于,所述生成器网络对应的函数模型为
    Figure PCTCN2018093784-appb-100001
    训练所述生成器网络的网络参数的目标函数
    Figure PCTCN2018093784-appb-100002
    为:
    Figure PCTCN2018093784-appb-100003
    θ表示生成对抗网络的网络参数,θ G表示生成器网络的网络参数,l s为平方损失函数,N为参与训练证件照样本的总数,I y表示自然光人脸图像样本,I x表示证件人脸图像样本,I s表示证件人脸图像样本I x对应的重建人脸图像;
    和/或,
    所述判别器网络对应的函数模型
    Figure PCTCN2018093784-appb-100004
    训练所述判别器网络的目标函数为:
    Figure PCTCN2018093784-appb-100005
    其中,θ D表示判别器网络的网络参数,Ε为数学期望,I y~p data(I y)表示自然光人脸图像样本I y满足高分辨率图像的概率分布为p data(I y);I x~p G(I x)表示证件人脸图像样本I x满足生成器的概率分布为p G(I y);log表示对数运算;
    Figure PCTCN2018093784-appb-100006
    是将自然光人脸图像样本I y判别为真实自然光人脸图像的概率,
    Figure PCTCN2018093784-appb-100007
    表示判别器网络
    Figure PCTCN2018093784-appb-100008
    将生成器网络
    Figure PCTCN2018093784-appb-100009
    输出的重建图像
    Figure PCTCN2018093784-appb-100010
    判别为真实自然光人脸图像的概率。
  6. 根据权利要求1至5任一所述的人证核实的方法,其特征在于,所述比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实,包括:
    若所述重建人脸图像和所述自然光人脸图像的匹配度大于设定阈值,判断为人证核实通过;否则,判断为人证核实失败。
  7. 根据权利要求6所述的人证核实的方法,其特征在于,所述自然光照属性包括明暗度、光照和/或色彩。
  8. 一种人证核实的装置,其特征在于,包括:
    人脸图像采集模块,用于获取证件照中的证件人脸图像,采集用户的自然光人脸图像;
    人脸图像重建模块,用于将所述证件人脸图像输入预先训练好的生成对抗网络,根据所述生成对抗网络的输出得到所述证件人脸图像对应的重建人脸图像;其中,所述生成对抗网络用于对输入的证件人脸图像添加预设的自然光属性信息,并且其输出的重建人脸图像的分辨率高于所述证件人脸图像的分辨率;
    人证核实模块,用于比对所述重建人脸图像和所述自然光人脸图像,根据比对结果进行人证核实。
  9. 根据权利要求8所述的人证核实的装置,其特征在于,还包括网络训练模块,用于基于ImageNet数据库对生成对抗网络进行预训练;基于预设的人证样本库对经过预训练的生成对抗网络进行再训练,直到得到满足预设条件的生成对抗网络;其中,所述人证样本库中包括多个证件照样本以及各证件照样本 对应的自然光人脸图像样本;
  10. 根据权利要求9所述的人证核实的装置,其特征在于,所述网络训练模块包括:
    所述第一训练单元,用于对生成对抗网络中的生成器网络训练,具体包括从人证样本库中获取证件照样本及其对应的自然光人脸图像样本,从所述证件照样本中得到证件人脸图像样本,将证件人脸图像样本作为生成器网络的输入,基于平方损失函数训练所述生成器网络的网络参数;所述平方损失函数为自然光人脸图像样本与生成器网络输出的重建人脸图像的基于像素的平方差的函数;
    所述第二训练单元,用于对生成对抗网络中的判别器网络训练,具体包括:将所述自然光人脸图像样本以及生成器网络输出的重建人脸图像作为判别器网络的输入,基于感知损失函数训练所述判别器网络的网络参数和所述生成器网络的网络参数;所述感知损失函数为判别器网络将生成器网络输出的重建人脸图像判别为真实自然光人脸图像的概率的函数。
  11. 一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至7任一所述方法的步骤。
PCT/CN2018/093784 2017-07-17 2018-06-29 人证核实的方法及装置 WO2019015466A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710581244.7A CN107423700B (zh) 2017-07-17 2017-07-17 人证核实的方法及装置
CN201710581244.7 2017-07-17

Publications (1)

Publication Number Publication Date
WO2019015466A1 true WO2019015466A1 (zh) 2019-01-24

Family

ID=60429889

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/093784 WO2019015466A1 (zh) 2017-07-17 2018-06-29 人证核实的方法及装置

Country Status (2)

Country Link
CN (1) CN107423700B (zh)
WO (1) WO2019015466A1 (zh)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190080148A1 (en) * 2017-09-08 2019-03-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for generating image
CN110097543A (zh) * 2019-04-25 2019-08-06 东北大学 基于生成式对抗网络的热轧带钢表面缺陷检测方法
CN110097609A (zh) * 2019-04-04 2019-08-06 上海凌笛数码科技有限公司 一种基于样本域的精细化绣花纹理迁移方法
CN110119746A (zh) * 2019-05-08 2019-08-13 北京市商汤科技开发有限公司 一种特征识别方法及装置、计算机可读存储介质
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
CN110443746A (zh) * 2019-07-25 2019-11-12 阿里巴巴集团控股有限公司 基于生成对抗网络的图片处理方法、装置及电子设备
CN110457994A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 人脸图像生成方法及装置、存储介质、计算机设备
CN110517195A (zh) * 2019-07-26 2019-11-29 西安电子科技大学 无监督sar图像去噪方法
CN111062290A (zh) * 2019-12-10 2020-04-24 西北大学 基于生成对抗网络中国书法风格转换模型构建方法及装置
CN111161200A (zh) * 2019-12-22 2020-05-15 天津大学 基于注意力机制的人体姿态迁移方法
CN111476749A (zh) * 2020-04-03 2020-07-31 陕西师范大学 基于人脸关键点引导式生成对抗网络的人脸修复方法
CN111476717A (zh) * 2020-04-07 2020-07-31 西安电子科技大学 基于自注意力生成对抗网络的人脸图像超分辨重建方法
CN111583096A (zh) * 2019-02-15 2020-08-25 北京京东乾石科技有限公司 图片处理方法及装置、电子设备和计算机可读介质
CN111597978A (zh) * 2020-05-14 2020-08-28 公安部第三研究所 基于StarGAN网络模型实现行人重识别图片自动生成的方法
CN111754478A (zh) * 2020-06-22 2020-10-09 怀光智能科技(武汉)有限公司 一种基于生成对抗网络的无监督域适应系统及方法
CN112053303A (zh) * 2020-09-08 2020-12-08 河海大学 一种用于水下auv的视频图像实时增强方法
CN112070145A (zh) * 2020-09-04 2020-12-11 北京工商大学 基于对抗网络的水果图像的新鲜度属性迁移方法
CN112102186A (zh) * 2020-09-07 2020-12-18 河海大学 一种水下视频图像实时增强方法
CN112233017A (zh) * 2020-10-28 2021-01-15 中国科学院合肥物质科学研究院 一种基于生成对抗网络的病态人脸数据增强方法
CN112330526A (zh) * 2019-08-05 2021-02-05 深圳Tcl新技术有限公司 一种人脸转换模型的训练方法、存储介质及终端设备
CN112598125A (zh) * 2020-11-25 2021-04-02 西安科技大学 一种基于双判别器加权生成对抗网络的手写数字生成方法
CN112668623A (zh) * 2020-12-22 2021-04-16 中国铁道科学研究院集团有限公司 基于生成对抗网络的双耳销钉缺陷样本的生成方法及装置
CN112818764A (zh) * 2021-01-15 2021-05-18 西安交通大学 一种基于特征重建模型的低分辨率图像人脸表情识别方法
CN113034393A (zh) * 2021-03-25 2021-06-25 北京百度网讯科技有限公司 照片修复方法、装置、设备以及存储介质
CN113378721A (zh) * 2021-06-11 2021-09-10 西安电子科技大学 一种基于对称和局部判别的生成对抗人脸校正方法及系统
CN113705400A (zh) * 2021-08-18 2021-11-26 中山大学 一种基于多模态人脸训练的单模态人脸活体检测方法
CN113723174A (zh) * 2021-07-09 2021-11-30 北京工业大学 基于生成对抗网络的人脸图像超分辨修复重建方法及系统
CN113762180A (zh) * 2021-09-13 2021-12-07 中国科学技术大学 基于毫米波雷达信号的人体活动成像的训练方法及系统
CN113761997A (zh) * 2020-08-27 2021-12-07 北京沃东天骏信息技术有限公司 生成半遮挡人脸识别器的方法和装置
CN113780534A (zh) * 2021-09-24 2021-12-10 北京字跳网络技术有限公司 网络模型的压缩方法、图像生成方法、装置、设备及介质
CN114067399A (zh) * 2021-11-16 2022-02-18 桂林电子科技大学 面向非配合场景的人脸重建与识别方法
CN114596236A (zh) * 2020-12-04 2022-06-07 国网智能科技股份有限公司 一种密闭腔体低照度图像增强方法及系统
CN114913086A (zh) * 2022-05-05 2022-08-16 上海云思智慧信息技术有限公司 基于生成对抗网络的人脸图像质量增强方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107423700B (zh) * 2017-07-17 2020-10-20 广州广电卓识智能科技有限公司 人证核实的方法及装置
US11263525B2 (en) 2017-10-26 2022-03-01 Nvidia Corporation Progressive modification of neural networks
US11250329B2 (en) 2017-10-26 2022-02-15 Nvidia Corporation Progressive modification of generative adversarial neural networks
CN108090905B (zh) * 2018-01-05 2019-02-05 清华大学 产线异常的判断方法及系统
CN108280413B (zh) * 2018-01-17 2022-04-19 百度在线网络技术(北京)有限公司 人脸识别方法和装置
CN108416326B (zh) * 2018-03-27 2021-07-16 百度在线网络技术(北京)有限公司 人脸识别方法和装置
CN110263603B (zh) * 2018-05-14 2021-08-06 桂林远望智能通信科技有限公司 基于中心损失和残差视觉仿真网络的人脸识别方法及装置
CN109711364A (zh) * 2018-12-29 2019-05-03 成都视观天下科技有限公司 一种人脸图像超分辨重建方法、装置及计算机设备
CN111753595A (zh) * 2019-03-29 2020-10-09 北京市商汤科技开发有限公司 活体检测方法和装置、设备和存储介质
CN110163114B (zh) * 2019-04-25 2022-02-15 厦门瑞为信息技术有限公司 一种人脸角度及人脸模糊度分析方法、系统和计算机设备
CN110580682A (zh) * 2019-09-16 2019-12-17 电子科技大学 一种基于优化生成对抗网络地震数据超分辨率重建方法
CN111553208A (zh) * 2020-04-15 2020-08-18 上海携程国际旅行社有限公司 基于人证合一的图像的身份识别方法、系统、设备和介质
CN112508782B (zh) * 2020-09-10 2024-04-26 浙江大华技术股份有限公司 网络模型的训练方法、人脸图像超分辨率重建方法及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050147292A1 (en) * 2000-03-27 2005-07-07 Microsoft Corporation Pose-invariant face recognition system and process
CN106683048A (zh) * 2016-11-30 2017-05-17 浙江宇视科技有限公司 一种图像超分辨率方法及设备
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN106952229A (zh) * 2017-03-15 2017-07-14 桂林电子科技大学 基于数据增强的改进型卷积网络的图像超分辨率重建方法
CN106951867A (zh) * 2017-03-22 2017-07-14 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备
CN107423700A (zh) * 2017-07-17 2017-12-01 广州广电卓识智能科技有限公司 人证核实的方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101694691A (zh) * 2009-07-07 2010-04-14 北京中星微电子有限公司 一种人脸图像合成方法及装置
CN105844202A (zh) * 2015-01-12 2016-08-10 芋头科技(杭州)有限公司 一种影像识别系统及方法
CN106845449A (zh) * 2017-02-22 2017-06-13 浙江维尔科技有限公司 一种图像处理装置、方法以及人脸识别系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050147292A1 (en) * 2000-03-27 2005-07-07 Microsoft Corporation Pose-invariant face recognition system and process
CN106683048A (zh) * 2016-11-30 2017-05-17 浙江宇视科技有限公司 一种图像超分辨率方法及设备
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN106952229A (zh) * 2017-03-15 2017-07-14 桂林电子科技大学 基于数据增强的改进型卷积网络的图像超分辨率重建方法
CN106951867A (zh) * 2017-03-22 2017-07-14 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备
CN107423700A (zh) * 2017-07-17 2017-12-01 广州广电卓识智能科技有限公司 人证核实的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI, YIJUN ET AL.: "Computer Vision and Pattern Recognition", GENERATIVE FACE COMPLETION, 19 April 2017 (2017-04-19), pages 3914, XP055564855 *

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190080148A1 (en) * 2017-09-08 2019-03-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for generating image
US11978245B2 (en) * 2017-09-08 2024-05-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for generating image
CN111583096A (zh) * 2019-02-15 2020-08-25 北京京东乾石科技有限公司 图片处理方法及装置、电子设备和计算机可读介质
CN110097609A (zh) * 2019-04-04 2019-08-06 上海凌笛数码科技有限公司 一种基于样本域的精细化绣花纹理迁移方法
CN110097543B (zh) * 2019-04-25 2023-01-13 东北大学 基于生成式对抗网络的热轧带钢表面缺陷检测方法
CN110097543A (zh) * 2019-04-25 2019-08-06 东北大学 基于生成式对抗网络的热轧带钢表面缺陷检测方法
CN110119746A (zh) * 2019-05-08 2019-08-13 北京市商汤科技开发有限公司 一种特征识别方法及装置、计算机可读存储介质
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
CN110457994A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 人脸图像生成方法及装置、存储介质、计算机设备
CN110457994B (zh) * 2019-06-26 2024-05-10 平安科技(深圳)有限公司 人脸图像生成方法及装置、存储介质、计算机设备
CN110443746A (zh) * 2019-07-25 2019-11-12 阿里巴巴集团控股有限公司 基于生成对抗网络的图片处理方法、装置及电子设备
CN110517195B (zh) * 2019-07-26 2022-12-06 西安电子科技大学 无监督sar图像去噪方法
CN110517195A (zh) * 2019-07-26 2019-11-29 西安电子科技大学 无监督sar图像去噪方法
CN112330526A (zh) * 2019-08-05 2021-02-05 深圳Tcl新技术有限公司 一种人脸转换模型的训练方法、存储介质及终端设备
CN112330526B (zh) * 2019-08-05 2024-02-09 深圳Tcl新技术有限公司 一种人脸转换模型的训练方法、存储介质及终端设备
CN111062290A (zh) * 2019-12-10 2020-04-24 西北大学 基于生成对抗网络中国书法风格转换模型构建方法及装置
CN111062290B (zh) * 2019-12-10 2023-04-07 西北大学 基于生成对抗网络中国书法风格转换模型构建方法及装置
CN111161200A (zh) * 2019-12-22 2020-05-15 天津大学 基于注意力机制的人体姿态迁移方法
CN111476749B (zh) * 2020-04-03 2023-02-28 陕西师范大学 基于人脸关键点引导式生成对抗网络的人脸修复方法
CN111476749A (zh) * 2020-04-03 2020-07-31 陕西师范大学 基于人脸关键点引导式生成对抗网络的人脸修复方法
CN111476717B (zh) * 2020-04-07 2023-03-24 西安电子科技大学 基于自注意力生成对抗网络的人脸图像超分辨重建方法
CN111476717A (zh) * 2020-04-07 2020-07-31 西安电子科技大学 基于自注意力生成对抗网络的人脸图像超分辨重建方法
CN111597978B (zh) * 2020-05-14 2023-04-07 公安部第三研究所 基于StarGAN网络模型实现行人重识别图片自动生成的方法
CN111597978A (zh) * 2020-05-14 2020-08-28 公安部第三研究所 基于StarGAN网络模型实现行人重识别图片自动生成的方法
CN111754478A (zh) * 2020-06-22 2020-10-09 怀光智能科技(武汉)有限公司 一种基于生成对抗网络的无监督域适应系统及方法
CN113761997B (zh) * 2020-08-27 2024-04-09 北京沃东天骏信息技术有限公司 生成半遮挡人脸识别器的方法和装置
CN113761997A (zh) * 2020-08-27 2021-12-07 北京沃东天骏信息技术有限公司 生成半遮挡人脸识别器的方法和装置
CN112070145A (zh) * 2020-09-04 2020-12-11 北京工商大学 基于对抗网络的水果图像的新鲜度属性迁移方法
CN112070145B (zh) * 2020-09-04 2024-05-28 世纪易联(北京)科技有限公司 基于对抗网络的水果图像的新鲜度属性迁移方法
CN112102186B (zh) * 2020-09-07 2024-04-05 河海大学 一种水下视频图像实时增强方法
CN112102186A (zh) * 2020-09-07 2020-12-18 河海大学 一种水下视频图像实时增强方法
CN112053303B (zh) * 2020-09-08 2024-04-05 河海大学 一种用于水下auv的视频图像实时增强方法
CN112053303A (zh) * 2020-09-08 2020-12-08 河海大学 一种用于水下auv的视频图像实时增强方法
CN112233017B (zh) * 2020-10-28 2023-09-26 中国科学院合肥物质科学研究院 一种基于生成对抗网络的病态人脸数据增强方法
CN112233017A (zh) * 2020-10-28 2021-01-15 中国科学院合肥物质科学研究院 一种基于生成对抗网络的病态人脸数据增强方法
CN112598125B (zh) * 2020-11-25 2024-04-30 西安科技大学 一种基于双判别器加权生成对抗网络的手写数字生成方法
CN112598125A (zh) * 2020-11-25 2021-04-02 西安科技大学 一种基于双判别器加权生成对抗网络的手写数字生成方法
CN114596236A (zh) * 2020-12-04 2022-06-07 国网智能科技股份有限公司 一种密闭腔体低照度图像增强方法及系统
CN112668623B (zh) * 2020-12-22 2024-04-16 中国铁道科学研究院集团有限公司 基于生成对抗网络的双耳销钉缺陷样本的生成方法及装置
CN112668623A (zh) * 2020-12-22 2021-04-16 中国铁道科学研究院集团有限公司 基于生成对抗网络的双耳销钉缺陷样本的生成方法及装置
CN112818764B (zh) * 2021-01-15 2023-05-02 西安交通大学 一种基于特征重建模型的低分辨率图像人脸表情识别方法
CN112818764A (zh) * 2021-01-15 2021-05-18 西安交通大学 一种基于特征重建模型的低分辨率图像人脸表情识别方法
CN113034393A (zh) * 2021-03-25 2021-06-25 北京百度网讯科技有限公司 照片修复方法、装置、设备以及存储介质
CN113378721B (zh) * 2021-06-11 2023-08-18 西安电子科技大学 一种基于对称和局部判别的生成对抗人脸校正方法及系统
CN113378721A (zh) * 2021-06-11 2021-09-10 西安电子科技大学 一种基于对称和局部判别的生成对抗人脸校正方法及系统
CN113723174A (zh) * 2021-07-09 2021-11-30 北京工业大学 基于生成对抗网络的人脸图像超分辨修复重建方法及系统
CN113705400B (zh) * 2021-08-18 2023-08-15 中山大学 一种基于多模态人脸训练的单模态人脸活体检测方法
CN113705400A (zh) * 2021-08-18 2021-11-26 中山大学 一种基于多模态人脸训练的单模态人脸活体检测方法
CN113762180A (zh) * 2021-09-13 2021-12-07 中国科学技术大学 基于毫米波雷达信号的人体活动成像的训练方法及系统
CN113762180B (zh) * 2021-09-13 2023-09-01 中国科学技术大学 基于毫米波雷达信号的人体活动成像的训练方法及系统
CN113780534A (zh) * 2021-09-24 2021-12-10 北京字跳网络技术有限公司 网络模型的压缩方法、图像生成方法、装置、设备及介质
CN113780534B (zh) * 2021-09-24 2023-08-22 北京字跳网络技术有限公司 网络模型的压缩方法、图像生成方法、装置、设备及介质
CN114067399A (zh) * 2021-11-16 2022-02-18 桂林电子科技大学 面向非配合场景的人脸重建与识别方法
CN114067399B (zh) * 2021-11-16 2024-03-15 桂林电子科技大学 面向非配合场景的人脸重建与识别方法
CN114913086A (zh) * 2022-05-05 2022-08-16 上海云思智慧信息技术有限公司 基于生成对抗网络的人脸图像质量增强方法

Also Published As

Publication number Publication date
CN107423700A (zh) 2017-12-01
CN107423700B (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
WO2019015466A1 (zh) 人证核实的方法及装置
Quan et al. Distinguishing between natural and computer-generated images using convolutional neural networks
US10354362B2 (en) Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network
Zhao et al. Improving periocular recognition by explicit attention to critical regions in deep neural network
Rozsa et al. Adversarial diversity and hard positive generation
Kadam et al. Detection and localization of multiple image splicing using MobileNet V1
JP2012160178A (ja) オブジェクト認識デバイス、オブジェクト認識を実施する方法および動的アピアランスモデルを実施する方法
Emeršič et al. The unconstrained ear recognition challenge 2019
CN109670559A (zh) 手写汉字的识别方法、装置、设备和存储介质
Jiang et al. Application of a fast RCNN based on upper and lower layers in face recognition
Satapathy et al. A lite convolutional neural network built on permuted Xceptio-inception and Xceptio-reduction modules for texture based facial liveness recognition
Chen et al. Generalized face antispoofing by learning to fuse features from high-and low-frequency domains
US12001520B2 (en) Generating simulated images that enhance socio-demographic diversity
CN111489405A (zh) 基于条件增强生成对抗网络的人脸草图合成系统
WO2022156214A1 (zh) 一种活体检测方法及装置
Jiang et al. Practical face swapping detection based on identity spatial constraints
Winter et al. Demystifying face-recognition with locally interpretable boosted features (libf)
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
CN116310008B (zh) 一种基于少样本学习的图像处理方法及相关设备
Emeršič et al. The unconstrained ear recognition challenge 2019-arxiv version with appendix
CN115294638A (zh) 基于fpga的虹膜识别系统部署方法、虹膜识别方法及系统
CN117496601B (zh) 基于细分类和对抗域泛化的人脸活体检测系统及方法
Huy Improving Security in Facial Biometrics: Views from both Attacker Side and Defender Side
Yin Representation Learning and Image Synthesis for Deep Face Recognition
Florencia et al. Data Augmentation Techniques for Facial Image Generation: A Brief Literature Review

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18835423

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18835423

Country of ref document: EP

Kind code of ref document: A1