CN110059465B - 身份验证方法、装置及设备 - Google Patents
身份验证方法、装置及设备 Download PDFInfo
- Publication number
- CN110059465B CN110059465B CN201910336037.4A CN201910336037A CN110059465B CN 110059465 B CN110059465 B CN 110059465B CN 201910336037 A CN201910336037 A CN 201910336037A CN 110059465 B CN110059465 B CN 110059465B
- Authority
- CN
- China
- Prior art keywords
- attribute
- network
- feature
- feature vector
- identity verification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 125
- 238000012795 verification Methods 0.000 title claims abstract description 104
- 239000013598 vector Substances 0.000 claims abstract description 216
- 230000008569 process Effects 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims description 83
- 239000000654 additive Substances 0.000 claims description 72
- 230000000996 additive effect Effects 0.000 claims description 72
- 238000006243 chemical reaction Methods 0.000 claims description 40
- 230000001364 causal effect Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000013508 migration Methods 0.000 description 8
- 230000005012 migration Effects 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000009897 systematic effect Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000008485 antagonism Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
- Computer And Data Communications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种身份验证方法、装置及设备,属于人机交互领域。所述方法包括:采集用户的原始特征;调用身份验证模型提取原始特征中的主属性特征向量,主属性特征向量是将原始特征中的m‑1种域差异特征进行选择性解耦的无偏特征表示,m为大于2的整数;根据主属性特征向量进行无偏身份验证得到身份验证结果;根据身份验证结果进行目标操作。本申请能够尽可能地消除了多种域差异特征对身份验证过程的影响,即便原始特征中存在域差异特征,也能够准确地实现身份验证。
Description
技术领域
本申请涉及人工智能领域,特别涉及一种身份验证方法、装置及设备。
背景技术
身份验证技术是指通过计算机系统中的一定手段,对用户身份进行确认的技术。常见的身份验证技术包括:人脸识别、指纹识别、终端姿态识别等等。
以人脸识别为例,服务器中设置有神经网络模型。当采集到待验证用户的人脸图像后,调用神经网络模型对人脸图像进行验证;当验证成功时,确定出待验证用户的身份;当验证失败时,反馈错误通知。其中,神经网络模型是预先通过训练集训练得到的。
但上述神经网络模型可能会误学习出有偏预测。比如,当用户开始蓄胡子、戴眼镜或因季节改变穿衣时,该神经网络模型的验证就可能失败。
发明内容
本申请实施例提供了一种身份验证方法、装置及设备,可以解决相关技术中的神经网络模型可能会误学习出有偏预测的问题。所述技术方案如下:
根据本申请的一个方面,提供了一种身份验证方法,所述方法包括:
采集用户的原始特征,所述原始特征中存在m-1种域差异特征,m为大于2的整数;
提取所述原始特征中的主属性特征向量;所述主属性特征向量是将所述原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示,m为大于2的整数;
根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果;
根据所述身份验证结果进行目标操作。
在一个可能的设计中,调用身份验证模型对所述原始特征进行特征提取,得到所述原始特征中的主属性特征向量;其中,所述身份验证模型包括:
第一对抗生成网络;或,所述第一对抗生成网络和第二对抗生成网络;
其中,所述第一对抗生成网络是基于因果关系对所述m-1种域差异特征进行选择性解耦所训练得到的网络,所述第二对抗生成网络是对所述第一对抗生成网络提取到的不同属性的属性特征向量进行随机组合后进行加性对抗训练得到的网络,所述属性包括身份和所述m-1种域差异。
根据本申请的一个方面,提供了一种第一对抗生成网络的训练方法,所述第一对抗生成网络包括m个生成器G1至Gm,每个所述生成器Gj对应m个判别器Gj1至Gjm,第j个生成器Gj用于学习第j个属性的特征,所述属性包括身份和m-1种域差异,i,j,j’∈[m],所述方法包括:
固定所有生成器Gi,优化所有判别器Dij来使得输出逼近与所述第j个属性对应的标签yi;
固定所有判别器Dij,优化所有生成器Gi来使得输出逼近与所述第j个属性对应的(1-yi);
其中,若第a个属性和第b个属性存在因果关系,则所述判别器Dab的输出损失不进行反向传播。
根据本申请的一个方面,提供了一种第二对抗生成网络的训练方法,所述第二对抗生成网络包括与m个属性一一对应的m个加性空间转换网络以及m个识别网络,所述属性包括身份和m-1种域差异,j∈[m],m为大于2的整数,所述方法包括:
将从训练集提取到的不同属性对应的属性特征向量进行随机组合,产生nr个组合属性特征向量;
将所述nr个组合属性特征向量划分为第一向量集合和第二向量集合,第一向量集合中的组合属性特征向量的属性组合是所述训练集中出现的属性组合,第二向量集合中的组合属性特征向量的属性组合是所述训练集中未出现的属性组合;
使用所述第一向量集合和所述第二向量集合对所述加性空间转换网络以及所述识别网络进行预测,第j个加性空间转换网络用于将第j个组合属性特征向量转换为第j个加性特征向量,第j个识别网络用于对m个加性特征向量的和特征向量进行与第j个属性对应的标签识别;
对于所述第一向量集合在预测过程中产生的第一损失,将所述第一损失反向传播至每个属性对应的所述识别网络和所述加性空间转换网络;
对于所述第二向量集合在预测过程中产生的第二损失,将所述第二损失反向传播至其它属性对应的所述识别网络和所述加性空间转换网络。
根据本申请的另一方面,提供了一种身份验证装置,所述装置包括:
采集模块,被配置为采集用户的原始特征,m为大于2的整数;
身份验证模块,被配置为提取所述原始特征中的主属性特征向量;所述主属性特征向量是将所述原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示,m为大于2的整数;
所述身份验证模块,还被配置为根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果;
操作模块,被配置为根据所述身份验证结果进行目标操作。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括:处理器和存储器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上所述的身份验证方法、第一对抗生成网络的训练方法、第二对抗生成网络的训练方法中的任一方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上所述的身份验证方法、第一对抗生成网络的训练方法、第二对抗生成网络的训练方法中的任一方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过身份验证模型提取原始特征中的主属性特征向量,根据主属性特征向量进行身份验证得到身份验证结果,由于该主属性特征向量是将原始特征中的多种域差异特征进行选择性解耦的无偏特征表示,因此尽可能地消除了多种域差异特征对身份验证过程的影响,即便原始特征中存在多种域差异(比如留了胡子、换了发型),也能够准确地实现身份验证。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是相关技术中提供的身份验证方法的流程图;
图2是本申请一个示意性实施例提供的身份验证系统的框图;
图3是本申请一个示意性实施例提供的身份验证方法的流程图;
图4是本申请一个示意性实施例提供的第一对抗生成网络和第二对抗生成网络在工作时的两阶段示意图;
图5是本申请一个示意性实施例提供的第一对抗生成网络和第二对抗生成网络的网络结构图;
图6是本申请一个示意性实施例提供的第一对抗生成网络的训练方法的流程图;
图7是本申请一个示意性实施例提供的身份验证软件的界面示意图;
图8是本申请一个示意性实施例提供的基于因果关系进行解耦学习的网络架构示意图;
图9是本申请一个示意性实施例提供的第二对抗生成网络的训练方法的流程图;
图10是本申请一个示意性实施例提供的第二对抗生成网络的训练原理示意图;
图11是本申请一个示意性实施例提供的身份验证方法的流程图;
图12是本申请一个示意性实施例提供的身份验证方法的流程图;
图13是本申请一个示意性实施例提供的身份验证方法的流程图;
图14是本申请一个示意性实施例提供的身份验证装置的框图;
图15是本申请一个示意性实施例提供的第一对抗生成网络的训练装置的框图;
图16是本申请一个示意性实施例提供的第二对抗生成网络的训练装置的框图;
图17是本申请一个示意性实施例提供的计算机设备的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请实施例提供的若干个名词进行解释:
身份验证技术:是指通过计算机手段,对用户身份进行确认的技术。常见的身份验证技术包括:人脸识别、指纹识别、声纹识别、虹膜识别、终端姿态识别、行人重识别中的至少一种。
身份验证模型:是指用于进行身份识别的神经网络模型。
人脸识别:是指通过人脸图像上的特征点,对用户身份进行确认的技术。人脸图像上的特征点包括但不限于:眉毛特征点、眼睛特征点、嘴巴特征点、鼻子特征点、耳朵特征点、脸颊特征点中的至少一种。
终端姿态识别:是指用户使用终端(比如手机)时,根据终端内部的传感器所采集到的用户操作在物理维度上的操作特征,比如按压力度、按压频率、按压位置、机身震动频率、机身震动周期、机身位移大小等,对用户身份进行确认的技术。
域:对一个训练集中样本子集产生整体性分布偏差的因素,比如对于人脸识别,不同用户的发色黑、黄和白可视为一种域的差异;不同用户是否戴有眼镜,也可视为一种域的差异;不同用户是否蓄有胡子,也视为一种域的差异。
迁移学习:当数据中有域的差别时,构建学习系统来处理域的差异;
负迁移:迁移学习中的概念,描述由于在训练集上采取了某种迁移学习方法,导致在测试集上正确率下降的现象。
对抗生成网络(Generative Adversarial Network, GAN):是近几年被广泛研究的一种生成模型,具备捕捉真实数据分布的能力。
生成器(Generator):是GAN中重要的组成部分,负责生成足够真实的数据。
判别器(Discriminator):是GAN中与生成器相互博弈的部分,负责判断生成器生成的数据是否接近真实数据。
在采用身份验证模型进行身份验证的过程中,身份验证模型可能会由于用户的分组/聚类而误学习出一种有偏的预测。比如,在人脸识别验证中,当用户开始蓄胡子或者戴眼镜的时候,验证就可能失败。另外,在行人重识别领域,当季节导致人们穿衣变化时或者在不同角度的摄像机下进行图形采集时,验证也可能失败。
相关技术中,提供了一种消除域差异对身份验证准确性影响的方法。该类方法包括但不限于:迁移成分分析(Transfer Component Analysis, TCA)、深度自适应网络(DeepAdaptation Network, DAN)、逆转梯度(Reversing Gradient,RevGrad)、对抗判别领域自适应(Aversarial Discriminative Domain Adaptation,ADDA)。
这类方法在学习主分类任务(如身份验证)的同时,消除所学特征的域差异。假设身份验证中存在不同手机机型的域差异,如图1所示,该身份验证模型包括:生成器12、任务判别器(Task Discriminator)14和差异判别器(Bias Discriminator)16。其中,生成器12用于从原始特征中提取特征向量;任务判别器14用于根据特征向量进行身份识别,比如用户1、用户2和用户3;差异判别器16用于根据特征向量进行机型判别,比如机型1、机型2和机型3。也即,原始特征通过生成器(Generator)网络12进行学习,输出的特征向量同时要做身份识别和机型判别。差异判别器16通过对抗学习,消除生成器12输出的特征向量中有关机型判别的特征信息,任务判别器14用来对用户进行身份识别。
由于影响身份验证模型的域差异可能为多种,比如:发色、发型、眼镜、胡子、耳环等等,当存在多种域差异且两两域差异之间还具有依赖关系时,上述技术方案中可能会出现两个问题:1、有可能会对具有依赖关系的域差异进行强制解耦而导致负迁移;2、有可能会因为对无关属性的域差异解耦不够而导致学习到的特征中仍然有过多的属性依赖。
本申请提供了一种无偏身份验证方案,能够尽可能地消除多种域差异对身份验证的影响,适用于存在有多种域差异的身份验证场景。
图2示出了本申请一个示例性实施例提供的身份验证系统的框图。该身份验证系统包括:终端120、网络140和服务器160。
终端120可以是手机、平板电脑、台式电脑、笔记本电脑、监控摄像头等设备。终端120是存在身份验证需求的终端,终端120用于采集身份验证所需的原始特征,原始特征包括:人脸数据、终端传感器数据、虹膜数据、指纹数据、声纹数据中的至少一种。在一些实施例中,终端120上可以登录有用户帐号,也即终端120可以是私人设备;在另一些实施例中,终端120是具有监控性质的监控设备。
终端120可以通过网络140与服务器160相连。网络140可以是有线网络或无线网络。终端120可以将认证数据传输给服务器160,由服务器160完成身份验证后,将身份验证结果回传给终端120。
服务器160是用于进行身份验证的后台服务器。服务器160中设置有用于身份验证的神经网络模型(下文简称:身份验证模型)。该身份验证模型能够基于无偏表示的特征数据进行身份验证。
图3示出了本申请一个示例性实施例提供的身份验证方法的流程图。该身份验证方法包括:训练阶段220和测试(及应用)阶段240。
在训练阶段220中,构建用于训练身份验证模型的训练集。该训练集包括:每个样本的原始特征221、身份标签222和多种域差异标签223。可选地,每个样本对应一个用户,原始特征221是在身份验证过程中采集的用户特征数据。 身份标签222用于标识该用户的身份,域差异标签223用于标识该用户的域差异。以域差异包括发色差异和胡子差异为例,表一示意性的示出了两组样本。
表一
采用该训练集对身份验证模型进行解耦学习224。该解耦学习224将身份验证作为主学习任务,多种域差异作为辅助学习任务。对于每个样本,身份以及每种域差异都视为一种属性。对于每个属性,采用对抗学习的方法来学习每种属性的解耦表示(也即尽可能地将每种属性的特征向量独立地提取出来),使得该隐层空间不包含其他属性的分类信息。使得最终学习到的身份验证模型242,可以尽可能地忽略多种域差异对身份验证的影响,从而输出准确的身份验证结果。
在测试(及应用)阶段240,采用测试集中的原始特征241输入身份验证模型242进行无偏身份验证,进而输出身份验证结果(也即身份标签243)。当测试通过时,将该身份验证模型242投入实际应用。
图4示出了本申请一个示例性实施例提供的身份验证模型242的结构框图。该身份验证模型242包括:第一对抗生成网络242a和第二对抗生成网络242b。
第一对抗生成网络242a是基于因果关系对m-1种域差异特征进行选择性解耦所训练得到的网络,m为大于2的整数。第二对抗生成网络242b是对第一对抗生成网络242a输出的不同属性特征向量进行随机组合后进行加性对抗训练得到的网络。
第一对抗生成网络242a和第二对抗生成网络242b用于实现两个阶段的解耦学习。
在阶段1中,第一对抗生成网络242a用于基于属性之间的非对称因果关系来学习解耦的特征表示。也即,第一对抗生成网络242a是通过如下方式训练得到的:当原始特征中存在具有因果关系的第一域差异特征和第二域差异特征时,对第二域差异特征进行对抗学习的过程中忽略与第一域差异特征之间的解耦学习。
因此,第一对抗生成网络242a对具有因果关系的至少两种域差异进行解耦时,并未对具有因果关系的至少两种域差异进行强制解耦,因此不会产生或极小概率会产生负迁移。
在阶段2中,先随机组合不同属性的属性特征向量,从而组合出样本中未出现的新组合,再由第二对抗生成网络242b基于加性对抗学习进行解耦,从而实现更进一步的解耦学习。也即,第二对抗生成网络是通过如下方式训练得到的:对第一对抗生成网络242a从训练集中提取到的不同属性特征向量进行随机组合,组合出训练集中未出现的属性组合后进行加性对抗训练得到的网络。
因此,通过随机组合来组合出训练集中未出现过的样本组合,能够使得第二对抗生成网络242b对无关属性的域差异进行充分解耦,从而解决对无关属性的域差异解耦不够而导致学习到的特征中仍然有过多的属性依赖的问题。
需要说明的是,上述第一对抗生成网络242a可以单独实施,也即第二对抗生成网络242b是可选部分。
第一对抗生成网络242a
结合参考图5,第一对抗生成网络242a包括:基础生成器G0、m个生成器(也称属性特征学习网络)G1至Gm、m*m个判别器D11至D33。
基础生成器G0,用于对原始特征x进行转换,得到全局属性特征向量f0;
每个生成器Gj对应m个判别器Gj1至Gjm,第j个生成器Gj用于学习第j个属性的特征,属性包括身份和m-1个域。生成器的个数与属性的个数m相同,m为大于2的整数(图5中以m=3举例说明,但不限定为3),也即图5中的属性包括:身份和至少两个域。
每个生成器G1至Gm分别用于提取与当前属性关联的判别信息,以学习到该属性与其它属性解耦后的属性特征向量。对于j∈[m], 第j个生成器与第j个属性相关联。
本申请设计的对抗学习方法包括:每个属性特征向量仅包含与该属性关联的判别信息。本申请考虑给定一个矩阵,其中包含两两属性之间的因果关系。然后对于每个j∈[m],本申请都构建m个判别网络/>来处理第j个属性和m个属性之间的因果关系。每个Dii用于学习第i个属性的特征,每个Dij用于在第i个属性的对抗学习中消除第j个属性的特征。
与身份对应的生成器G1可称为主生成器,其它生成器G2和G3分别对应一个域。每个生成器还对应有m个判别器,判别器D11可称为主判别器。
其中,主生成器G1,用于对全局属性特征向量f0进行特征提取得到主属性特征向量f1。当第一对抗生成网络242a单独使用为身份验证模型时,主判别器D11用于对主属性特征向量f1进行身份验证得到身份验证结果;或者,当第一对抗生成网络242a与第二对抗生成网络242b级联使用为身份验证模型时,主判别器D11用于对主属性特征向量f1进行第一判别后输出组合属性特征向量f '1给第二对抗生成网络242b。
基于图5做出如下参数定义:
[k]:表示下标集合{1,2,…,k};
[-i]: 表示去除第i个元素的下标集合;
n:样本数量;
m:属性数量;
d:特征维数;
:输出/属性/标签矩阵,包含n个独立的样本yi,i∈[n];
: 输入/特征矩阵,包含n个独立的样本xi,i∈[n];
本申请允许Y包含缺失值,定义={(i,j);i∈[n],j∈[m],yij未观测到的标签值}为观测到的标签的下标集合。模型在与之对应的特征与属性标签上训练。
本申请假设Y中都是类别变量,即对每个。
不失一般性地,假设Y的第一列是身份标签,其他列是多种域差异标签。
第一对抗生成网络242a的训练
第一对抗生成网络242a的训练是一个典型的对抗学习网络的训练过程,生成器G0至Gm都用来做特征提取。判别器D11至Dmm分为两类:对于所有的i,j∈[m],i≠j,
(1)每个判别器Dii是用于学习第i个属性的特征,每个判别器Dij是用于消除第j个属性的特征;
(2)每个判别器Dii的学习是用标准的监督学习,每个判别器Dij的学习是采用对抗学习。
对于判别器的对抗学习流程可以视为如下两个交替进行的步骤:
步骤601:固定所有Gi,优化Dij来使得输出逼近与之对应的独热编码的标签;
步骤602:固定所有Dij,优化所有Gi来使得输出逼近与之对应的(1-yi)。
其中,若第a个属性和第b个属性存在因果关系,则所述判别器Dab的输出损失不进行反向传播,i,j,j'∈[m]。
步骤603:交替执行上述两个步骤,直至满足生成器Gi和判别器Dij的训练结束条件。
可选地,训练结束条件包括:损失函数收敛至目标值,或者,训练次数达到预设次数。
阶段1中对抗学习的最终目标是使得所有Gi可以提取与之对应的第i个属性的特征,而不能提取与之对应的其他属性的特征。如此,第i个属性就可以和其他属性解耦。
第一对抗生成网络242a的对抗学习的优化问题如下。
首先是属性学习的优化问题,也即生成器Gi的损失函数:
其中,是属性学习的损失函数,wj是第j个属性的权重,G0是基础生成器,Gj是第j个属性对应的生成器,Djj是第jj个判别器,j属于[m]。
其次是域差异的判别学习,也即判别器的损失函数:
其中,是对/>的独热编码向量,/>是对抗学习的损失函数,/>是(j,j’)属性对的权重,j,j’属于[m+1],xi是训练集中的原始特征。
第三步是消除域差异:
其中,,/>为维度为/>的全1向量。
在第三步中,本申请也会同时强化属性学习:
根据本申请之前采用非对称因果关系的策略,当属性j'的变化会引起属性j的变化时,本申请令,否则令/>。换句话说,若第j'个属性和第j个属性存在因果关系,则所述判别器Djj’的输出损失不进行反向传播,i,j,j'∈[m]。
判别网络的最后一层的激活函数是softmax,是交叉熵损失,/>是平均平方误差损失。上述4个优化问题循环依次进行。其中,每个循环中,前两个优化问题优化1步,后两个优化问题优化5步。
在如图7所示的示意性例子中,采用终端传感器数据进行身份认证。以终端为智能手机为例,智能手机中设置有重力加速度传感器和陀螺仪传感器,当用户点击屏幕上的密码“171718”时,重力加度度传感器和陀螺仪传感器会采集到用户的操作特征,进而产生传感器数据,该传感器数据能够用于验证用户身份。但是由于每个终端的操作系统和机身厚度是不同的,不同操作系统会采用不同的数据形式来上报传感器数据,不同的机身厚度也会影响传感器所采集到的传感器数据。因此在图8的例子中,假设第一对抗生成网络242a包括:基础生成器G0,主生成器G1、辅生成器G2和辅生成器G3。在该例子中,主生成器G1对应的网络对身份识别进行监督学习,对系统判别和厚度判别进行对抗学习,使得主生成器G1提取的特征仅仅包含身份识别的信息,而不包含系统判别和厚度判别的特征。同理,辅生成器G2提取的特征仅仅包含系统判别的特征,而不包含身份识别和厚度判别的特征。辅生成器G3同理,仅仅包含厚度判别的特征。
本申请利用了两两属性之间的因果关系,具体地,对于每个属性,本申请将选择其他所有属性集合中的一个子集来进行解耦。选择是基于每个属性和其他属性的因果关系,即,如果其他属性不是作为引起该属性变化的原因,那么其他属性就可以来与该属性进行解耦。这种技术使得本申请的方法有能力灵活地进行属性选择,从而避免强制解耦所有其他属性(特别是存在因果关系的属性)而导致的负迁移,以及避免解耦的属性过少而导致的属性依赖。以图8作为示例,假如厚度变化会引起系统变化,那么对于系统判别这个属性,就不能和厚度判别来进行解耦。但是对于厚度判别而言,系统变化并不是厚度变化的原因,所以厚度判别这个属性可以和系统判别这个属性来进行解耦,所以就会变为图8所示的结构,辅生成器G2的网络里去除了一个厚度判别的对抗目标。但是辅生成器G3的网络并不会去除系统判别的对抗目标。
本申请之所以利用上述非对称的因果关系,是因为:以图8作为示例,假如厚度变化一定会引起系统的变化,若辅生成器G2里的特征可以被识别出系统变化,是不可能不被识别出厚度变化的。因为假如厚度变化一定会引起可被识别的系统变化,最终导致厚度变化被识别。但是反之却没有这样的关系。
第二对抗生成网络242b
如图5所示,第二对抗生成网络242b包括:m个加性空间转换网络T1至Tm,以及m个识别网络R1至Rm。
第一对抗生成网络242a产生的组合属性特征向量被m个加性空间转换网络T1至Tm分别转换为m个加性特征向量。m个加性特征向量相加成为一个和特征向量u,然后被送入m个识别网络/>进行识别,分别对应于m个属性。
其中,m个加性空间转换网络中与身份识别对应的加性空间转换网络T1还可称为主加性空间转换网络,m个识别网络中与身份识别对应的识别网络R1还可称为主识别网络。
第二对抗生成网络242b的训练
图9示出了本申请一个示例性实施例提供的第二对抗生成网络242b的训练方法的流程图。该方法包括:
步骤901,将第一对抗生成网络生成的不同属性对应的属性特征向量进行随机组合,产生nr个组合属性特征向量;
步骤902,将nr个组合属性特征向量划分为第一向量集合和第二向量集合,第一向量集合中的组合属性特征向量的属性组合是训练集中出现的属性组合,第二向量集合中的组合属性特征向量的属性组合是训练集中未出现的属性组合;
对第一对抗生成网络242a生成的不同属性对应的属性特征向量进行随机组合,产生nr个组合属性特征向量,每个组合属性特征向量分别对应有属性组合,并按照属性组合分为两个子集:训练集中出现的属性组合以及训练集中未出现的属性组合。定义如下两个下标集合和/>:
:训练集中见过的属性组合的下标;
:训练集中未见过的属性组合的下标。
步骤903,使用第一向量集合和第二向量集合对加性空间转换网络以及识别网络进行预测;
第j个加性空间转换网络用于将第j个组合属性特征向量转换为第j个加性特征向量,第j个识别网络用于对m个加性特征向量的和特征向量进行与第j个属性对应的标签识别。
步骤904,对于第一向量集合在训练过程中产生的第一损失,将第一损失反向传播至每个属性对应的识别网络和加性空间转换网络进行训练;
对于每个,优化如下的优化问题:
;
其中,为识别损失函数,/>为属性j的权重。Rj是第j个属性对应的加性空间转换网络,Tj是第j个属性对应的识别网络,Tj’是第j'个属性对应的识别网络,fij'是第i个样本的第j'个属性的隐层特征向量,符号“~”代表经过随机组合。s.t.是subject to的缩写,表示使得ui满足约束条件。
步骤904,对于第二向量集合在训练过程中产生的第二损失,将第二损失反向传播至其它属性对应的识别网络和加性空间转换网络进行训练。
对于每个,优化如下的优化问题:
。
其中,为识别损失函数,/>为属性j的权重。Rj是第j个属性对应的加性空间转换网络,Tj是第j个属性对应的识别网络,Tj’是第j'个属性对应的识别网络,fij'是第i个样本的第j'个属性的隐层特征向量,符号“~”代表经过随机组合。s.t.是subject to的缩写,表示使得ui满足约束条件。
所有识别网络(R网络)的最后一层激活函数也是softmax函数。是交叉熵损失函数。
加性对抗网络的优化机制如图10所示。假设前两个属性分别为:物体类别和颜色类别。加性对抗网络的前两条支路依次对应于这两个属性的学习。首先,假设对于见过的属性组合已经训练完毕,例如,一座白色的山可以被精确地识别为物体“山”和颜色“白”。之后,对于没见过的属性组合,一座白色的山和一颗绿色的树,本申请要让网络输出物体“山”和颜色“绿”。在假设见过的组合已经训练完毕的前提下,如果现在输出的颜色不是“绿”,那么有理由相信,误差是来自于网络第一条支路中的“白色”的信息。那么本申请将第二支路输出产生的颜色误差回传至第一条支路来消除其中的颜色信息。这样一来,在第一支路中的颜色信息产生的域差异就被消除了。
需要说明的是,上述训练集中,每个用户群仅对应于一种域,比如一种设备类型。用户群的划分是由域的差别划分的。在一个域上训练的模型要在另外一个域上进行测试,每个用户群只考虑了一种域的差别,如表二所示。在实际应用中,可能出现多种域的差别。比如对于人脸验证而言,眼镜、发型、胡子的差别都算域的差别。
表二
作为本申请的一个示例,上述各个实施例中的基础生成器G0,m个生成器(也称属性特征学习网络)G1至Gm、m个加性空间转换网络T1至Tm可以为任意神经网络。
作为本申请的一个示例,上述各个实施例中的判别器、m*m个判别器D11至D33、m个识别网络R1至Rm的最后一层激活函数可以是softmax函数、sigmoid函数、tanh函数、线性函数、swish激活函数、relu激活函数中的任意一种。
作为本申请的一个示例,损失函数(包括阶段1中的和/>,阶段2中的/>)均可以是交叉熵损失(cross entropy loss)、逻辑斯特损失(logistic loss)、均值平方损失(mean square loss)、平方损失(square loss),/>范数损失和/>范数损失。
作为本申请的一个示例,上述各个实施例中的,其中/>为维度为的全1向量。这里的/>还可以替换为其他四种维度为/>的向量:
(1)全0向量;
(2)全1向量;
(3)全0.5向量;
(4)对于,第r维取/>,其中/>为示性函数,即按照训练集上标签的先验概率来取值。
身份验证阶段
图11示出了本申请一个示例性实施例提供的身份验证方法的流程图。该方法可以由图1所示的服务器执行。该方法包括:
步骤1101,采集用户的原始特征,原始特征中存在m-1种域差异特征;
域是对一个训练集中样本子集产生整体性分布偏差的因素。域包括但不限于:发色、胡子、眼镜、机型、操作系统、机身厚度、应用类型中的至少两种。m为大于2的整数。
步骤1102,提取原始特征中的主属性特征向量;主属性特征向量是将原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示;
可选地,服务器调用身份验证模型提取原始特征中的主属性特征向量。该身份验证模型包括:
第一对抗生成网络;或,第一对抗生成网络和第二对抗生成网络;
其中,第一对抗生成网络是基于因果关系对m-1种域差异特征进行选择性解耦所训练得到的网络,所述第二对抗生成网络是对所述第一对抗生成网络提取到的不同属性的属性特征向量进行随机组合后进行加性对抗训练得到的网络。
步骤1103,根据主属性特征向量进行身份验证得到身份验证结果;
可选地,服务器调用身份验证模型根据主属性特征向量进行身份验证得到身份验证结果。
步骤1104,根据身份验证结果进行目标操作。
目标操作可以是与身份验证有关的敏感操作。目标操作包括但不限于:解锁锁屏界面、解锁保密空间、授权支付行为、授权转账行为、授权解密行为等等。
本申请实施例对“目标操作”的具体操作形式不加以限定。
综上所述,本实施例提供的方法,通过身份验证模型提取原始特征中的主属性特征向量,根据主属性特征向量进行身份验证得到身份验证结果,由于该主属性特征向量是将原始特征中的多种域差异特征进行选择性解耦的无偏特征表示,因此尽可能地消除了多种域差异特征对身份验证过程的影响,即便原始特征中存在域差异(比如留了胡子、换了发型),也能够准确地实现身份验证。
需要说明的是,在身份验证阶段,对于第一对抗生成网络,只需要第一对抗生成网络中的基础生成器、主生成器和主判别器即可;对于第二对抗生成网络,只需要主加性空间转换网络和主识别网络即可。
以采用第一对抗生成网络单独作为身份验证模型为例,相应的身份验证方法参考如下实施例。第一对抗生成网络包括基础生成器、主生成器和主判别器。
图12示出了本申请另一个示例性实施例提供的身份验证方法的流程图。该方法可以由图1所示的服务器执行。该方法包括:
步骤1201,采集用户的原始特征,原始特征中存在m-1种域差异特征,m为大于2的整数;
步骤1202,调用基础生成器将原始特征变换为全局属性特征向量;
基础生成器G0用于将原始特征x变换为全局属性特征向量f0,如图5所示。全局属性特征向量f0中混合有身份属性的特征,以及m-1个域差异特征。
步骤1203,调用主生成器对全局属性特征向量进行特征提取得到主属性特征向量;
主生成器G1用于对全局属性特征向量f0进行特征提取得到主属性特征向量f1,主属性特征向量f1是身份属性对应的特征向量(对m-1种域差异特征进行了解耦),主属性特征向量f1是将原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示。
步骤1204,调用主判别器对主属性特征向量进行身份验证得到身份验证结果;
主判别器D11用于对主属性特征向量进行身份标签预测,输出相应的身份标签。身份标签包括:属于身份标签i,或者,不属于已有的任意身份标签。
步骤1205,根据身份验证结果进行目标操作。
目标操作可以是与身份验证有关的敏感操作。目标操作包括但不限于:解锁锁屏界面、解锁保密空间、授权支付行为、授权转账行为、授权解密行为等等。
本申请实施例对“目标操作”的具体操作形式不加以限定。
综上所述,本实施例提供的方法,通过第一对抗生成网络来进行无偏身份验证,由于第一对抗生成网络对具有因果关系的至少两种域差异进行解耦时,并未对具有因果关系的至少两种域差异进行强制解耦,因此不会产生或极小概率会产生负迁移,能够对存在因果关系的至少两种域差异进行较好的解耦,从而获得较优的无偏身份验证结果。
以采用第一对抗生成网络和第二对抗生成网络级联作为身份验证模型为例,相应的身份验证方法参考如下实施例。第一对抗生成网络包括基础生成器、主生成器和主判别器;第二对抗生成网络包括主加性空间转换网络和主识别网络。
图13示出了本申请另一个示例性实施例提供的身份验证方法的流程图。该方法可以由图1所示的服务器执行,该方法包括:
步骤1301,采集用户的原始特征,所述原始特征中存在m-1种域差异特征,m为大于2的整数;
步骤1302,调用第一对抗生成网络中的基础生成器将原始特征变换为全局属性特征向量;
基础生成器G0用于将原始特征x变换为全局属性特征向量f0,如图5所示。全局属性特征向量f0中混合有身份属性的特征,以及m-1个域差异特征。
步骤1303,调用第一对抗生成网络中的主生成器对全局属性特征向量进行特征提取得到主属性特征向量;
主生成器G1用于对全局属性特征向量f0进行特征提取得到主属性特征向量f1,主属性特征向量f1是身份属性对应的特征向量(对m-1种域差异特征进行了解耦),主属性特征向量f1是将原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示。
步骤1304,调用第一对抗生成网络中的主判别器对主属性特征向量进行第一判别后,输出组合属性特征向量给第二对抗生成网络;
主判别器D11用于对主属性特征向量f1进行第一判别后,输出组合属性特征向量f'1给第二对抗生成网络。
步骤1305,调用第二对抗生成网络中的主加性空间转换网络对第一对抗生成网络输出的组合属性特征向量进行转换,得到加性特征向量;
主加性空间转换网络T1对第一对抗生成网络输出的组合属性特征向量f '1进行转换,得到加性特征向量S1。
步骤1306,调用第二对抗生成网络中的主识别网络对加性特征向量进行身份识别,得到身份验证结果。
主识别网络R1对加性特征向量S1进行身份标签预测,输出相应的身份标签。身份标签包括:属于身份标签i,或者,不属于已有的任意身份标签。
需要说明的是,与图5不同的是,在预测阶段不需要进行随机组合过程,以及多个加性特征向量的相加过程。
步骤1307,根据身份验证结果进行目标操作。
目标操作可以是与身份验证有关的敏感操作。目标操作包括但不限于:解锁锁屏界面、解锁保密空间、授权支付行为、授权转账行为、授权解密行为等等。
本申请实施例对“目标操作”的具体操作形式不加以限定。
综上所述,本实施例提供的方法,通过第一对抗生成网络来进行无偏身份验证,由于第一对抗生成网络对具有因果关系的至少两种域差异进行解耦时,并未对具有因果关系的至少两种域差异进行强制解耦,因此不会产生或极小概率会产生负迁移,能够对存在因果关系的至少两种域差异进行较好的解耦,从而获得较优的无偏身份验证结果。
本实施例提供的方法,还通过在第一对抗生成网络后级联第二对抗生成网络来进行无偏身份验证,由于第二对抗生成网络对无关属性的域差异进行充分解耦,从而解决对无关属性的域差异解耦不够而导致学习到的特征中仍然有过多的属性依赖的问题,使得即便多种域差异之间存在隐含的关系属性时,仍然能对多种域差异进行较好的解耦,从而提升解耦性能,获得更优的无偏身份验证结果。
本申请提供的身份验证方法,能够应用于如下场景:
1、基于人脸识别的身份验证场景;
在采用人脸识别技术进行身份验证时,终端会采集用户的人脸图像进行身份识别。对于同一个用户,该用户可能会选择留胡子或不留胡子,留长发或短发,戴眼镜或不戴眼镜,从而使得同一个用户的不同人脸图像中存在域差异特征。这些域差异特征均会影响身份验证的验证结果是否正确。为了消除这些域差异特征对身份验证过程的影响,可以采用上述实施例中的身份验证方法,从而在存在域差异特征时,也能够较为准确地得到身份验证结果。
2、基于传感器数据的身份验证场景;
在采用传感器数据进行身份验证时,终端内设置有加速度传感器和/或陀螺仪传感器,通过传感器来采集用户使用终端时的行为特征。行为特征包括:用户点击终端的力度、用户点击终端的频率、用户连续点击终端时的停顿节奏特征。由于不同传感器上报的传感器数据的格式不同,不同操作系统对传感器数据的格式要求不同,不同形状和厚度的终端(安装有相同的传感器)所采集到的行为特征也存在不同,而目前的用户可能会一年更换一次新的终端(比如手机),导致同一用户帐号在不同终端上进行身份验证时存在域差异特征。这些域差异特征均会影响身份验证的验证结果是否正确。为了消除这些域差异特征对身份验证过程的影响,可以采用上述实施例中的身份验证方法,从而在存在域差异特征时,也能够较为准确地得到身份验证结果。
3、基于指纹数据的身份验证场景;
在采用指纹数据进行身份验证时,终端内设置有指纹传感器,通过指纹传感器来采集用户使用终端时的指纹特征。由于不同指纹传感器上报的指纹数据的格式不同,因此当用户更换终端后,导致同一用户帐号在不同终端上进行身份验证时存在域差异特征。这些域差异特征均会影响身份验证的验证结果是否正确。为了消除这些域差异特征对身份验证过程的影响,可以采用上述实施例中的身份验证方法,从而在存在域差异特征时,也能够较为准确地得到身份验证结果。
4、基于虹膜识别的身份验证场景。
在采用虹膜识别技术进行身份验证时,终端会采集用户的虹膜图像进行身份识别。对于同一个用户,该用户可能会带有隐形眼镜或不带有隐形眼镜,不同的隐形眼镜上还可能有不同的花纹,这种隐形眼镜所导致的域差异会影响身份验证的验证结果是否正确。为了消除这些域差异特征对身份验证过程的影响,可以采用上述实施例中的身份验证方法,从而在存在域差异特征时,也能够较为准确地得到身份验证结果。
以下为本申请实施例提供的装置实施例,对于装置实施例中未详细描述的细节,可以参考上述一一对应的方法实施例。
图14示出了本申请一个示例性实施例提供的身份验证装置的框图。该装置可以通过软件、硬件或者两者的结合实现成为服务器的全部或一部分。该装置包括:
采集模块1420,被配置为采集用户的原始特征,原始特征中存在m-1种域差异特征;
身份验证模块1440,被配置为提取所述原始特征中的主属性特征向量;所述主属性特征向量是将所述原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示,m为大于2的整数;
所述身份验证模块1460,还被配置为根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果;
操作模块1480,被配置为根据所述身份验证结果进行目标操作。
在一个可能的实现方式中,身份验证模块1460,被配置为调用身份验证模型对所述原始特征进行特征提取,得到所述原始特征中的主属性特征向量;其中,所述身份验证模型包括:第一对抗生成网络;或,所述第一对抗生成网络和第二对抗生成网络;
在一个可能的实现方式中,所述第一对抗生成网络包括:基础生成器、主生成器和主判别器;
所述身份验证模块1440,被配置为调用所述基础生成器将所述原始特征变换为全局属性特征向量;
所述身份验证模块1440,被配置为调用所述主生成器对所述全局属性特征向量进行特征提取得到主属性特征向量;
所述身份验证模块1440,被配置为调用所述主判别器对所述主属性特征向量进行身份验证得到身份验证结果,或者,调用所述主判别器对所述主属性特征向量进行第一判别后输出组合属性特征向量给所述第二对抗生成网络。
在一个可能的实现方式中,所述第一对抗生成网络是通过如下方式训练得到的:
当所述原始特征中存在具有因果关系的第一域差异特征和第二域差异特征时,对所述第二域差异特征进行对抗学习的过程中忽略与所述第一域差异特征之间的解耦学习。
在一个可能的实现方式中,所述第一对抗生成网络包括:m个生成器G1至Gm,每个所述生成器Gj对应m个判别器Gj1至Gjm,第j个生成器Gj用于学习第j个属性的特征,与所述身份对应的生成器G1是所述主生成器,与所述生成器G1对应的判别器D11是所述主判别器,i,j,j'∈[m];
所述第一对抗生成网络是采用如下方式训练得到的:
固定所有生成器Gi,优化所有判别器Dij来使得输出逼近与所述第j个属性对应的标签yi;
固定所有判别器Dij,优化所有生成器Gi来使得输出逼近与所述第j个属性对应的(1-yi);
其中,若第j’个属性和第j个属性存在因果关系,则所述判别器Djj’的输出损失不进行反向传播,i,j,j'∈[m]。
在一个可能的实现方式中,所述第二对抗生成网络包括:主加性空间转换网络和主识别网络;
所述身份验证模块1440,被配置为调用所述主加性空间转换网络对所述第一对抗生成网络输出的组合属性特征向量进行转换,得到加性特征向量;
所述身份验证模块1440,被配置为调用所述主识别网络对所述加性特征向量进行身份识别,得到身份验证结果。
在一个可能的实现方式中,所述第二对抗生成网络是通过如下方式训练得到的:
对所述第一对抗生成网络从训练集中提取到的不同属性特征向量进行随机组合;
对随机组合得到的组合属性特征向量进行加性对抗训练;
其中,存在至少一个所述组合属性特征向量对应的属性组合是所述训练集中未出现的属性组合。
在一个可能的实现方式中,所述第二对抗生成网络包括:与所述m个属性一一对应的m个加性空间转换网络以及m个识别网络,j∈[m];
所述第二对抗生成网络是采用如下步骤训练得到的:
将所述第一对抗生成网络生成的不同属性对应的属性特征向量进行随机组合,产生nr个组合属性特征向量;
将所述nr个组合属性特征向量划分为第一向量集合和第二向量集合,第一向量集合中的组合属性特征向量的属性组合是所述训练集中出现的属性组合,第二向量集合中的组合属性特征向量的属性组合是所述训练集中未出现的属性组合;
使用所述第一向量集合和所述第二向量集合对所述加性空间转换网络以及所述识别网络进行预测,第j个加性空间转换网络用于将第j个组合属性特征向量转换为第j个加性特征向量,第j个识别网络用于对m个加性特征向量的和特征向量进行与第j个属性对应的标签识别;
对于所述第一向量集合在预测过程中产生的第一损失,将所述第一损失反向传播至每个属性对应的所述识别网络和所述加性空间转换网络;
对于所述第二向量集合在预测过程中产生的第二损失,将所述第二损失反向传播至其它属性对应的所述识别网络和所述加性空间转换网络。
图15示出了本申请一个示例性实施例提供的第一对抗生成网络的训练装置的框图。该装置可以通过软件、硬件或者两者的结合实现成为服务器的全部或一部分。所述第一对抗生成网络包括m个生成器G1至Gm,每个所述生成器Gj对应m个判别器Gj1至Gjm,第j个生成器Gj用于学习第j个属性的特征,所述属性包括身份和m-1个域,i,j,j'∈[m],该装置包括:
第一训练模块1520,被配置为固定所有生成器Gi,优化所有判别器Dij来使得输出逼近与所述第j个属性对应的标签yi;
第二训练模块1540,被配置为固定所有判别器Dij,优化所有生成器Gi来使得输出逼近与所述第j个属性对应的(1-yi);
交替模块1560,被配置为控制所述第一训练模块1520和所述第二训练模块交替执行上述两个步骤,直至满足所述生成器Gi和所述判别器Dij的训练结束条件;
其中,若第j'个属性和第j个属性存在因果关系,则所述判别器Djj’的输出损失不进行反向传播,i,j,j'∈[m]。
图16示出了本申请一个示例性实施例提供的第二对抗生成网络的训练装置的框图。该装置可以通过软件、硬件或者两者的结合实现成为服务器的全部或一部分。所述第二对抗生成网络包括与m个属性一一对应的m个加性空间转换网络以及m个识别网络,所述属性包括身份和m-1种域差异,j∈[m],m为大于2的整数,该装置包括:
随机组合模块1620,被配置为将从训练集提取到的不同属性对应的属性特征向量进行随机组合,产生nr个组合属性特征向量;
集合划分模块1640,被配置为将所述nr个组合属性特征向量划分为第一向量集合和第二向量集合,第一向量集合中的组合属性特征向量的属性组合是所述训练集中出现的属性组合,第二向量集合中的组合属性特征向量的属性组合是所述训练集中未出现的属性组合;
前向训练模块1660,被配置为使用所述第一向量集合和所述第二向量集合对所述加性空间转换网络以及所述识别网络进行预测,第j个加性空间转换网络用于将第j个组合属性特征向量转换为第j个加性特征向量,第j个识别网络用于对m个加性特征向量的和特征向量进行与第j个属性对应的标签预测;
误差反馈模块1680,被配置为对于所述第一向量集合在预测过程中产生的第一损失,将所述第一损失反向传播至每个属性对应的所述识别网络和所述加性空间转换网络;
所述误差反馈模块1680,被配置为对于所述第二向量集合在预测过程中产生的第二损失,将所述第二损失反向传播至其它属性对应的所述识别网络和所述加性空间转换网络。
需要说明的是:上述实施例提供的身份验证装置在验证身份时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的身份验证装置,与身份验证方法的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图17示出了本申请一个实施例提供的计算机设备1700的结构框图。该计算机设备1700可以是手机、平板电脑、智能电视、多媒体播放设备、可穿戴设备、台式电脑、服务器等电子设备。该计算机设备1700可用于实施上述实施例中提供的身份验证方法、第一对抗生成网络的训练方法、第二对抗生成网络的训练方法中的任意一种。
通常,计算机设备1700包括有:处理器1701和存储器1702。
处理器1701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1701可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1701所执行以实现本申请中方法实施例提供的身份验证方法、第一对抗生成网络的训练方法、第二对抗生成网络的训练方法中的任意一种。
在一些实施例中,计算机设备1700还可选包括有:外围设备接口1703和至少一个外围设备。处理器1701、存储器1702和外围设备接口1703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1703相连。具体地,外围设备可以包括:显示屏1704、音频电路1705、通信接口1706和电源1707中的至少一种。
本领域技术人员可以理解,图17中示出的结构并不构成对计算机设备1700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集。所述至少一条指令、至少一段程序、代码集或指令集经配置以由所述处理器执行,以实现上述身份验证方法、第一对抗生成网络的训练方法、第二对抗生成网络的训练方法中的任意一种。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集在被计算机设备的处理器执行时实现上述身份验证方法。可选地,上述计算机可读存储介质可以是ROM(Read-Only Memory,只读存储器)、RAM(RandomAccess Memory,随机存取存储器)、CD-ROM(Compact Disc Read-Only Memory,只读光盘)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,当该计算机程序产品被执行时,其用于实现上述身份验证方法、第一对抗生成网络的训练方法、第二对抗生成网络的训练方法中的任意一种。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种身份验证方法,其特征在于,所述方法包括:
采集用户的原始特征,所述原始特征中存在m-1种域差异特征,m为大于2的整数,所述域差异特征是指不同用户之间在相同属性上具有差异性的特征;
提取所述原始特征中的主属性特征向量,所述主属性特征向量是将所述原始特征中的所述m-1种域差异特征进行选择性解耦的无偏特征表示,所述选择性解耦是指当所述原始特征中存在具有因果关系的第一域差异特征和第二域差异特征时,对所述第二域差异特征进行对抗学习的过程中忽略与所述第一域差异特征之间的解耦学习,所述主属性特征向量是身份属性对应的特征向量;
根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果;
根据所述身份验证结果进行目标操作。
2.根据权利要求1所述的方法,其特征在于,所述提取所述原始特征中的主属性特征向量,包括:
调用身份验证模型对所述原始特征进行特征提取,得到所述原始特征中的主属性特征向量;其中,所述身份验证模型包括:
第一对抗生成网络;或,所述第一对抗生成网络和第二对抗生成网络;
其中,所述第一对抗生成网络是基于因果关系对所述m-1种域差异特征进行选择性解耦所训练得到的网络,所述第二对抗生成网络是对所述第一对抗生成网络提取到的不同属性的属性特征向量进行随机组合后进行加性对抗训练得到的网络,所述属性包括身份和m-1种域差异。
3.根据权利要求2所述的方法,其特征在于,所述第一对抗生成网络包括:基础生成器、主生成器和主判别器;
所述调用身份验证模型对所述原始特征进行特征提取,得到所述原始特征中的主属性特征向量,包括:
调用所述基础生成器将所述原始特征变换为全局属性特征向量;
调用所述主生成器对所述全局属性特征向量进行特征提取得到所述主属性特征向量;
所述根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果,包括:
调用所述主判别器对所述主属性特征向量进行身份验证得到身份验证结果,或者,调用所述主判别器对所述主属性特征向量进行第一判别后输出组合属性特征向量给所述第二对抗生成网络。
4.根据权利要求2或3所述的方法,其特征在于,所述第一对抗生成网络包括:m个生成器G1至Gm,每个所述生成器Gj对应m个判别器Gj1至Gjm,第j个生成器Gj用于学习第j个属性的特征,与所述身份对应的生成器G1是主生成器,与所述生成器G1对应的判别器D11是主判别器,i,j,j'∈[m];
所述第一对抗生成网络是采用如下方式训练得到的:
固定所有生成器Gi,优化所有判别器Dij来使得输出逼近与第i个属性对应的标签yi;
固定所有判别器Dij,优化所有生成器Gi来使得输出逼近与所述第i个属性对应的(1-yi);
其中,若第j’个属性和第j个属性存在因果关系,则所述判别器Djj’的输出损失不进行反向传播,i,j,j'∈[m]。
5.根据权利要求2所述的方法,其特征在于,所述第二对抗生成网络包括:主加性空间转换网络和主识别网络;
所述根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果,包括:
调用所述主加性空间转换网络对所述第一对抗生成网络输出的组合属性特征向量进行转换,得到加性特征向量;
调用所述主识别网络对所述加性特征向量进行身份识别,得到身份验证结果。
6.根据权利要求2或5所述的方法,其特征在于,所述第二对抗生成网络是通过如下方式训练得到的:
对所述第一对抗生成网络从训练集中提取到的不同属性特征向量进行随机组合;
对随机组合得到的组合属性特征向量进行加性对抗训练;
其中,存在至少一个所述组合属性特征向量对应的属性组合是所述训练集中未出现的属性组合。
7.根据权利要求6所述的方法,其特征在于,所述第二对抗生成网络包括:与m个属性一一对应的m个加性空间转换网络以及m个识别网络,j∈[m];
所述第二对抗生成网络是采用如下步骤训练得到的:
将所述第一对抗生成网络生成的不同属性对应的属性特征向量进行随机组合,产生nr个组合属性特征向量;
将所述nr个组合属性特征向量划分为第一向量集合和第二向量集合,第一向量集合中的组合属性特征向量的属性组合是所述训练集中出现的属性组合,第二向量集合中的组合属性特征向量的属性组合是所述训练集中未出现的属性组合;
使用所述第一向量集合和所述第二向量集合对所述加性空间转换网络以及所述识别网络进行预测,第j个加性空间转换网络用于将第j个组合属性特征向量转换为第j个加性特征向量,第j个识别网络用于对m个加性特征向量的和特征向量进行与第j个属性对应的标签识别;
对于所述第一向量集合在预测过程中产生的第一损失,将所述第一损失反向传播至每个属性对应的所述识别网络和所述加性空间转换网络;
对于所述第二向量集合在预测过程中产生的第二损失,将所述第二损失反向传播至其它属性对应的所述识别网络和所述加性空间转换网络。
8.一种身份验证装置,其特征在于,所述装置包括:
采集模块,被配置为采集用户的原始特征,所述原始特征中存在m-1种域差异特征,m为大于2的整数,所述域差异特征是指不同用户之间在相同属性上具有差异性的特征;
身份验证模块,被配置为提取所述原始特征中的主属性特征向量;所述主属性特征向量是将所述原始特征中的m-1种域差异特征进行选择性解耦的无偏特征表示,所述选择性解耦是指当所述原始特征中存在具有因果关系的第一域差异特征和第二域差异特征时,对所述第二域差异特征进行对抗学习的过程中忽略与所述第一域差异特征之间的解耦学习,所述主属性特征向量是身份属性对应的特征向量;
所述身份验证模块,还被配置为根据所述主属性特征向量进行无偏身份验证处理得到身份验证结果;
操作模块,被配置为根据所述身份验证结果进行目标操作。
9.一种计算机设备,其特征在于,所述计算机设备包括:处理器和存储器,所述存储器存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如上权利要求1至7任一所述的身份验证方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有至少一段程序,所述至少一段程序由处理器加载并执行以实现如上权利要求1至7任一所述的身份验证方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910336037.4A CN110059465B (zh) | 2019-04-24 | 2019-04-24 | 身份验证方法、装置及设备 |
EP20794930.6A EP3961441B1 (en) | 2019-04-24 | 2020-03-11 | Identity verification method and apparatus, computer device and storage medium |
JP2021539985A JP7213358B2 (ja) | 2019-04-24 | 2020-03-11 | アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム |
PCT/CN2020/078777 WO2020215915A1 (zh) | 2019-04-24 | 2020-03-11 | 身份验证方法、装置、计算机设备及存储介质 |
US17/359,125 US12019718B2 (en) | 2019-04-24 | 2021-06-25 | Identity verification method and apparatus, computer device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910336037.4A CN110059465B (zh) | 2019-04-24 | 2019-04-24 | 身份验证方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110059465A CN110059465A (zh) | 2019-07-26 |
CN110059465B true CN110059465B (zh) | 2023-07-25 |
Family
ID=67320600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910336037.4A Active CN110059465B (zh) | 2019-04-24 | 2019-04-24 | 身份验证方法、装置及设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US12019718B2 (zh) |
EP (1) | EP3961441B1 (zh) |
JP (1) | JP7213358B2 (zh) |
CN (1) | CN110059465B (zh) |
WO (1) | WO2020215915A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059465B (zh) | 2019-04-24 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置及设备 |
US11455531B2 (en) * | 2019-10-15 | 2022-09-27 | Siemens Aktiengesellschaft | Trustworthy predictions using deep neural networks based on adversarial calibration |
WO2021102697A1 (zh) * | 2019-11-26 | 2021-06-03 | 驭势(上海)汽车科技有限公司 | 生成对抗网络的训练方法和系统、电子设备和存储介质 |
CN111339890A (zh) * | 2020-02-20 | 2020-06-26 | 中国测绘科学研究院 | 基于高分辨率遥感影像提取新增建设用地信息的方法 |
CN112084962B (zh) * | 2020-09-11 | 2021-05-25 | 贵州大学 | 基于生成式对抗网络脸部隐私保护方法 |
CN112179503A (zh) * | 2020-09-27 | 2021-01-05 | 中国科学院光电技术研究所 | 基于稀疏子孔径夏克-哈特曼波前传感器的深度学习波前复原方法 |
CN112785495A (zh) * | 2021-01-27 | 2021-05-11 | 驭势科技(南京)有限公司 | 图像处理模型训练方法、图像生成方法、装置和设备 |
CN113658178B (zh) * | 2021-10-14 | 2022-01-25 | 北京字节跳动网络技术有限公司 | 组织图像的识别方法、装置、可读介质和电子设备 |
CN114499712B (zh) * | 2021-12-22 | 2024-01-05 | 天翼云科技有限公司 | 一种手势识别方法、设备及存储介质 |
CN114708667B (zh) * | 2022-03-14 | 2023-04-07 | 江苏东方数码系统集成有限公司 | 一种基于多重生物识别技术的安防方法及系统 |
CN114863213B (zh) * | 2022-05-11 | 2024-04-16 | 杭州电子科技大学 | 一种基于因果解耦生成模型的域泛化图像识别方法 |
CN116129473B (zh) * | 2023-04-17 | 2023-07-14 | 山东省人工智能研究院 | 基于身份引导的联合学习换衣行人重识别方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523463A (zh) * | 2018-11-20 | 2019-03-26 | 中山大学 | 一种基于条件生成对抗网络的人脸老化方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022317A (zh) * | 2016-06-27 | 2016-10-12 | 北京小米移动软件有限公司 | 人脸识别方法及装置 |
WO2018199031A1 (ja) | 2017-04-27 | 2018-11-01 | 日本電信電話株式会社 | 学習型信号分離方法、及び学習型信号分離装置 |
KR102403494B1 (ko) * | 2017-04-27 | 2022-05-27 | 에스케이텔레콤 주식회사 | 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법 |
CN108875463B (zh) * | 2017-05-16 | 2022-08-12 | 富士通株式会社 | 多视角向量处理方法和设备 |
US10579785B2 (en) * | 2017-09-29 | 2020-03-03 | General Electric Company | Automatic authentification for MES system using facial recognition |
CN108229348B (zh) * | 2017-12-21 | 2020-04-28 | 中国科学院自动化研究所 | 遮挡人脸图像的识别装置 |
CN108090465B (zh) * | 2017-12-29 | 2020-05-01 | 国信优易数据有限公司 | 一种妆容效果处理模型训练方法及妆容效果处理方法 |
US10699161B2 (en) * | 2018-02-28 | 2020-06-30 | Fujitsu Limited | Tunable generative adversarial networks |
US10825219B2 (en) * | 2018-03-22 | 2020-11-03 | Northeastern University | Segmentation guided image generation with adversarial networks |
CN108766444B (zh) | 2018-04-09 | 2020-11-03 | 平安科技(深圳)有限公司 | 用户身份验证方法、服务器及存储介质 |
CN109376769A (zh) * | 2018-09-21 | 2019-02-22 | 广东技术师范学院 | 基于生成式对抗神经网络用于多任务分类的信息迁移方法 |
US11275819B2 (en) * | 2018-12-05 | 2022-03-15 | Bank Of America Corporation | Generative adversarial network training and feature extraction for biometric authentication |
CN110059465B (zh) | 2019-04-24 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置及设备 |
-
2019
- 2019-04-24 CN CN201910336037.4A patent/CN110059465B/zh active Active
-
2020
- 2020-03-11 JP JP2021539985A patent/JP7213358B2/ja active Active
- 2020-03-11 EP EP20794930.6A patent/EP3961441B1/en active Active
- 2020-03-11 WO PCT/CN2020/078777 patent/WO2020215915A1/zh unknown
-
2021
- 2021-06-25 US US17/359,125 patent/US12019718B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523463A (zh) * | 2018-11-20 | 2019-03-26 | 中山大学 | 一种基于条件生成对抗网络的人脸老化方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3961441B1 (en) | 2023-09-27 |
WO2020215915A1 (zh) | 2020-10-29 |
US20210326576A1 (en) | 2021-10-21 |
EP3961441A1 (en) | 2022-03-02 |
US12019718B2 (en) | 2024-06-25 |
JP7213358B2 (ja) | 2023-01-26 |
CN110059465A (zh) | 2019-07-26 |
EP3961441A4 (en) | 2022-07-06 |
JP2022529863A (ja) | 2022-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059465B (zh) | 身份验证方法、装置及设备 | |
Ranjan et al. | Deep learning for understanding faces: Machines may be just as good, or better, than humans | |
Chen et al. | Distilling audio-visual knowledge by compositional contrastive learning | |
Koohzadi et al. | Survey on deep learning methods in human action recognition | |
Gao et al. | The labeled multiple canonical correlation analysis for information fusion | |
CN102890776B (zh) | 通过面部表情调取表情图释的方法 | |
EP1433118A1 (en) | System and method of face recognition using portions of learned model | |
CN110598019B (zh) | 重复图像识别方法及装置 | |
CN111079594B (zh) | 一种基于双流协同网络的视频动作分类识别方法 | |
US11935298B2 (en) | System and method for predicting formation in sports | |
Lejbølle et al. | Person re-identification using spatial and layer-wise attention | |
Wang et al. | Push for center learning via orthogonalization and subspace masking for person re-identification | |
Nida et al. | Video augmentation technique for human action recognition using genetic algorithm | |
Zong et al. | Transductive transfer lda with riesz-based volume lbp for emotion recognition in the wild | |
Wang et al. | Hierarchical image segmentation ensemble for objectness in RGB-D images | |
CN115705706A (zh) | 视频处理方法、装置、计算机设备和存储介质 | |
CN116910683A (zh) | 一种基于事件依赖的多模态虚假新闻检测方法 | |
Deng et al. | Zero-shot learning based on quality-verifying adversarial network | |
CN113723111B (zh) | 一种小样本意图识别方法、装置、设备及存储介质 | |
CN112380369B (zh) | 图像检索模型的训练方法、装置、设备和存储介质 | |
Moctezuma et al. | Appearance model update based on online learning and soft‐biometrics traits for people re‐identification in multi‐camera environments | |
CN116932878A (zh) | 内容推荐方法、装置、电子设备、存储介质和程序产品 | |
Liu et al. | Composite face sketch recognition based on components | |
CN114462546A (zh) | 一种基于多模型融合的特征蒸馏方法、系统、设备和介质 | |
Lu et al. | Joint Subspace and Low‐Rank Coding Method for Makeup Face Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |