JP7213358B2 - アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム - Google Patents
アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7213358B2 JP7213358B2 JP2021539985A JP2021539985A JP7213358B2 JP 7213358 B2 JP7213358 B2 JP 7213358B2 JP 2021539985 A JP2021539985 A JP 2021539985A JP 2021539985 A JP2021539985 A JP 2021539985A JP 7213358 B2 JP7213358 B2 JP 7213358B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- network
- identity verification
- feature vector
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012795 verification Methods 0.000 title claims description 205
- 238000000034 method Methods 0.000 title claims description 121
- 238000004590 computer program Methods 0.000 title claims 2
- 239000013598 vector Substances 0.000 claims description 247
- 238000012549 training Methods 0.000 claims description 87
- 239000000654 additive Substances 0.000 claims description 84
- 230000000996 additive effect Effects 0.000 claims description 84
- 230000009466 transformation Effects 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 31
- 238000000605 extraction Methods 0.000 claims description 18
- 230000001364 causal effect Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 12
- 230000006399 behavior Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000005457 optimization Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000037308 hair color Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 206010027476 Metastases Diseases 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000009401 metastasis Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer And Data Communications (AREA)
- Machine Translation (AREA)
Description
ユーザの原特徴を収集するステップであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、ステップと、
前記原特徴における主属性特徴ベクトルを抽出するステップであって、前記主属性特徴ベクトルは、前記原特徴における前記m-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である、ステップと、
前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得するステップと、を含む。
第1敵対的生成ネットワークを含み、又は、第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含み、
前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークであり、前記属性は、アイデンティティと、前記m-1種類のドメイン差異とを含む。
全ての生成器Giを固定して、出力が、前記i番目の属性に対応するラベルyiに近くなるように、全ての識別器Dijを最適化させるステップと、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-yi)に近くなるように、全ての生成器Giを最適化させるステップと、を含む。
訓練セットから抽出された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、nr個の組み合わせ属性特徴ベクトルを生成するステップと、
前記nr個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、ステップと、
前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、を含む。
ユーザの原特徴を収集する収集モジュールであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、収集モジュールと、
前記原特徴における主属性特徴ベクトルを抽出するアイデンティティ検証モジュールであって、前記主属性特徴ベクトルは、前記原特徴におけるm-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である、アイデンティティ検証モジュールと、を含み、
前記アイデンティティ検証モジュールは、さらに、前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する。
図5を参照すると、第1敵対的生成ネットワーク242aは、基本生成器G0、m個の生成器(属性特徴学習ネットワークとも呼ばれる)G1~Gm、m*m個の識別器D11~Dmmを含む。
それぞれの生成器Gjは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gjは、j番目の属性の特徴を学習するためのものであり、属性は、アイデンティティと、m-1個のドメインとを含む。生成器の数は属性の数mと同じであり、mは2よりも大きい整数であり(図5では、m=3を例にして説明しているが、3に限定されない)。つまり、図5における属性は、アイデンティティと、少なくとも2つのドメインとを含む。
m:属性の数;
d:特徴の次元数;
Y∈Rn*n:n個の独立したサンプルyi(i∈[n])が含まれる出力/属性/ラベル行列;
X∈Rn*d:n個の独立したサンプルxi(i∈[n])が含まれる入力/特徴行列;
本願では、Yに欠損値が含まれることが許可される。観測されたラベルの添字集合として、Ω={(i,j);i∈[n],j∈[m],yijは観測されたラベル値である}を定義する。モデルは、それに対応する特徴及び属性ラベルにて訓練される。
一般性を失わずに、Yの第1列がアイデンティティラベルであり、残りの列が複数種類のドメイン差異ラベルであると仮定する。
第1敵対的生成ネットワーク242aの訓練は、典型的な敵対的学習ネットワークの訓練過程である。生成器G0~Gmは、いずれも、特徴抽出に用いられる。識別器D11~Dmmは、2種類に分けられる。全てのi、j∈[m](i≠j)について、
(1)各識別器Diiは、i番目の属性の特徴を学習するためのものであり、各識別器Dijは、j番目の属性の特徴を解消するためのものである。
本願で前述した非対称的な因果関係を用いたストラテジーによれば、本願では、属性j’の変化が属性jの変化を引き起こす場合、Λjj’=0にし、それ以外の場合、Λjj’=1にする。言い換えれば、j’番目の属性とj番目の属性に因果関係がある場合、前記識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である。
図5に示すように、第2敵対的生成ネットワーク242bは、m個の加法的空間変換ネットワークT1~Tm、及びm個の認識ネットワークR1~Rmを含む。
図9は、本願の1つの例示的な実施例で提供される第2敵対的生成ネットワーク242bの訓練方法のフローチャートを示す。該方法は、以下のステップを含む。
Ωu={i∈nr}:訓練セットで見たことのない属性組み合わせの添字。
ここで、Lrは認識損失関数であり、w’ jは属性jの重みである。Rjはj番目の属性に対応する加法的空間変換ネットワークであり、Tjはj番目の属性に対応する認識ネットワークであり、Tj’はj’番目の属性に対応する認識ネットワークであり、fij’はi番目のサンプルのj’番目の属性の隠れ層特徴ベクトルであり、符号「~」はランダムに組み合わせたものを表す。s.t.はsubject toの略語であり、uiが制約条件を満たすようにすることを表す。
(2)全1ベクトル;
(3)全0.5ベクトル;
(4)r∈[kj’]について、r次元目は、
図11は、本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートを示す。該方法は、図1に示すサーバによって実行されてもよい。該方法は、以下のステップを含む。
第1敵対的生成ネットワークを含み、又は、第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含む。
顔認識技術を用いてアイデンティティ検証を行う場合、端末は、ユーザの顔画像を収集して、アイデンティティ認識を行う。同一のユーザの場合、該ユーザが、ひげを生やすか生やさないか、長い髪にするか短い髪にするか、眼鏡をかけるかかけないかを選択し得るため、同一のユーザの異なる顔画像にドメイン差異特徴が存在する。これらのドメイン差異特徴は、いずれも、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
センサデータを用いてアイデンティティ検証を行う場合、端末内に加速度センサ及び/又はジャイロセンサが設けられており、センサによって、ユーザが端末を使用するときの行動特徴を収集する。行動特徴は、ユーザが端末をクリックする力の強さ、ユーザが端末をクリックする頻度、ユーザが端末を連続的にクリックする場合の一時停止のリズムの特徴を含む。異なるセンサから報告されたセンサデータのフォーマットが異なり、異なるオペレーティングシステムによるセンサデータのフォーマットへの要求が異なり、異なる形状及び厚さの端末(同じセンサが取り付けられている)によって収集された行動特徴も異なるが、現在のユーザは、1年1回新しい端末(例えば、携帯電話)に交換し得る。その結果、同一のユーザアカウントは、異なる端末上でアイデンティティ検証を行う場合、ドメイン差異特徴が存在する。これらのドメイン差異特徴は、いずれも、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
指紋データを用いてアイデンティティ検証を行う場合、端末内に指紋センサが設けられており、指紋センサによって、ユーザが端末を使用するときの指紋特徴を収集する。異なる指紋センサから報告された指紋データのフォーマットが異なるため、ユーザが端末を交換すると、同一のユーザアカウントは、異なる端末上でアイデンティティ検証を行う場合、ドメイン差異特徴が存在する。これらのドメイン差異特徴は、いずれも、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
虹彩認識技術を用いてアイデンティティ検証を行う場合、端末は、ユーザの虹彩画像を収集して、アイデンティティ認識を行う。同一のユーザの場合、該ユーザは、コンタクトレンズを着用している場合も、コンタクトレンズを着用していない場合もある。異なるコンタクトレンズには、異なる模様がある可能性もある。このようなコンタクトレンズに起因するドメイン差異は、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
前記アイデンティティ検証モジュール1440は、前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換し、
前記アイデンティティ検証モジュール1440は、前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得し、
前記アイデンティティ検証モジュール1440は、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得し、又は、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに第1識別を行った後、組み合わせ属性特徴ベクトルを前記第2敵対的生成ネットワークに出力する。
因果関係を持つ第1ドメイン差異特徴と第2ドメイン差異特徴が前記原特徴に存在する場合、前記第2ドメイン差異特徴に対して敵対的学習を行う過程において、前記第1ドメイン差異特徴とのデカップリング学習を無視する方式によって訓練されたものである。
前記第1敵対的生成ネットワークは、
全ての生成器Giを固定して、出力が、前記i番目の属性に対応するラベルyiに近くなるように、全ての識別器Dijを最適化させ、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-yi)に近くなるように、全ての生成器Giを最適化させる方式によって訓練されたものであり、
j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である。
前記アイデンティティ検証モジュール1440は、前記主加法的空間変換ネットワークを呼び出して、前記第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得し、
前記アイデンティティ検証モジュール1440は、前記主認識ネットワークを呼び出して、前記加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得する。
前記第1敵対的生成ネットワークによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせ、
ランダムに組み合わせられた組み合わせ属性特徴ベクトルに対して加法的敵対的な訓練を行う方式によって訓練されたものであり、
少なくとも1つの前記組み合わせ属性特徴ベクトルに対応する属性組み合わせは、前記訓練セットに現れない属性組み合わせである。
前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、nr個の組み合わせ属性特徴ベクトルを生成するステップと、
前記nr個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、ステップと、
前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、によって訓練されたものである。
全ての生成器Giを固定して、出力が、前記i番目の属性に対応するラベルyiに近くなるように、全ての識別器Dijを最適化させる第1訓練モジュール1520と、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-yi)に近くなるように、全ての生成器Giを最適化させる第2訓練モジュール1540と、
前記生成器Gi及び前記識別器Dijの訓練終了条件が満たされるまで、上記2つのステップを交互に実行するように、前記第1訓練モジュール1520及び前記第2訓練モジュール1540を制御する交互モジュール1560と、を含み、
j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である。
訓練セットから抽出された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、nr個の組み合わせ属性特徴ベクトルを生成するランダム組み合わせモジュール1620と、
前記nr個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割する集合分割モジュール1640であって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、集合分割モジュール1640と、
前記第1ベクトル集合と前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測する前方訓練モジュール1660であって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル予測を行うためのものである、前方訓練モジュール1660と、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播する誤差フィードバックモジュール1680と、を含み、
前記誤差フィードバックモジュール1680は、予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播する。
Claims (20)
- コンピュータ機器が実行するアイデンティティ検証方法であって、
ユーザの原特徴を収集するステップであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、ステップと、
前記原特徴における主属性特徴ベクトルを抽出するステップであって、前記主属性特徴ベクトルは、前記原特徴における前記m-1種類のドメイン差異特徴に対して選択的デカップリングを行った特徴表現であり、各ドメイン差異特徴が1つの属性と見なされ、前記選択的デカップリングは、2つの属性の間の因果関係を利用し、属性ごとに、他の属性が該属性の変化を引き起こす原因でない場合、前記他の属性とのデカップリング学習を適用し、他の属性が該属性の変化を引き起こす原因である場合には、前記他の属性とのデカップリング学習を無視する、ステップと、
前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得するステップと、
を含む方法。 - 前記原特徴における主属性特徴ベクトルを抽出する前記ステップは、
アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得するステップを含み、
前記アイデンティティ検証モデルは、第1敵対的生成ネットワークを含み、
前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して前記選択的デカップリングを行うことにより訓練されたネットワークである、
ことを特徴とする請求項1に記載の方法。 - 前記原特徴における主属性特徴ベクトルを抽出する前記ステップは、
アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得するステップを含み、
前記アイデンティティ検証モデルは、第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含み、
前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して前記選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークであり、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことは、
前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換するステップと、
前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得するステップと、を含み、
前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する前記ステップは、
前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得するステップを含む、
ことを特徴とする請求項2又は3に記載の方法。 - 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことは、
前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換するステップと、
前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得するステップと、を含み、
前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する前記ステップは、
前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対して第1識別を行った後、組み合わせ属性特徴ベクトルを前記第2敵対的生成ネットワークに出力するステップを含む、
ことを特徴とする請求項3に記載の方法。 - 前記第1敵対的生成ネットワークは、
因果関係を持つ第1ドメイン差異特徴と第2ドメイン差異特徴が前記原特徴に存在する場合、前記第2ドメイン差異特徴に対して敵対的学習を行う過程において、前記第1ドメイン差異特徴とのデカップリング学習を無視する方式によって訓練されたものである、
ことを特徴とする請求項2乃至5のいずれか1項に記載の方法。 - 前記第1敵対的生成ネットワークは、m個の生成器G1~Gmを含み、それぞれの前記生成器Gjは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gjは、j番目の属性の特徴を学習するためのものであり、前記属性は、アイデンティティと、m-1個のドメインとを含み、前記アイデンティティに対応する生成器G1は前記主生成器であり、前記生成器G1に対応する識別器D11は前記主識別器であり、i,j,j’∈[m]であり、
前記第1敵対的生成ネットワークは、
全ての生成器Giを固定して、出力が、前記i番目の属性に対応するラベルyiに近くなるように、全ての識別器Dijを最適化させるステップと、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-yi)に近くなるように、全ての生成器Giを最適化させるステップを、
前記生成器Gi及び前記識別器Dijの訓練終了条件が満たされるまで、交互に実行する方式によって訓練されたものであり、
j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である、
ことを特徴とする請求項4又は5に記載の方法。 - 前記識別器D11~Dmmは2種類に分けられ、全てのiについて、j∈[m]、i≠jであり、
各識別器Diiは、i番目の属性の特徴を学習するためのものであり、各識別器Dijは、j番目の属性の特徴を解消するためのものであり、
各識別器Diiの学習は、標準的な教師あり学習を用い、各識別器Dijの学習は、敵対的学習を用いる、
ことを特徴とする請求項7に記載の方法。 - 前記第2敵対的生成ネットワークは、主加法的空間変換ネットワークと、主認識ネットワークとを含み、
前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する前記ステップは、
前記主加法的空間変換ネットワークを呼び出して、前記第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得するステップと、
前記主認識ネットワークを呼び出して、前記加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得するステップと、を含む、
ことを特徴とする請求項3に記載の方法。 - 前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせ、
ランダムに組み合わせられた組み合わせ属性特徴ベクトルに対して加法的敵対的な訓練を行う方式によって訓練されたものであり、
少なくとも1つの前記組み合わせ属性特徴ベクトルに対応する属性組み合わせは、前記訓練セットに現れない属性組み合わせである、
ことを特徴とする請求項3、5又は9に記載の方法。 - 前記第2敵対的生成ネットワークは、前記m個の属性に1対1で対応するm個の加法的空間変換ネットワークと、m個の認識ネットワークとを含み、j∈[m]であり、
前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、nr個の組み合わせ属性特徴ベクトルを生成するステップと、
前記nr個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、ステップと、
前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、によって訓練されたものである、
ことを特徴とする請求項10に記載の方法。 - アイデンティティ検証装置であって、
ユーザの原特徴を収集する収集モジュールであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、収集モジュールと、
前記原特徴における主属性特徴ベクトルを抽出するアイデンティティ検証モジュールであって、前記主属性特徴ベクトルは、前記原特徴におけるm-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った特徴表現であり、各ドメイン差異特徴が1つの属性と見なされ、前記選択的デカップリングは、2つの属性の間の因果関係を利用し、属性ごとに、他の属性が該属性の変化を引き起こす原因でない場合、前記他の属性とのデカップリング学習を適用し、他の属性が該属性の変化を引き起こす原因である場合には、前記他の属性とのデカップリング学習を無視する、アイデンティティ検証モジュールと、を含み、
前記アイデンティティ検証モジュールは、さらに、前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する、
ことを特徴とする装置。 - 前記アイデンティティ検証モジュールは、さらに、アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得し、
前記アイデンティティ検証モデルは、第1敵対的生成ネットワークを含み、又は、前記第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含み、前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して前記選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークであり、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含む、
ことを特徴とする請求項12に記載の装置。 - 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
前記アイデンティティ検証モジュールは、さらに、前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換し、前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得し、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する、
ことを特徴とする請求項13に記載の装置。 - 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
前記アイデンティティ検証モジュールは、さらに、前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換し、前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得し、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに第1識別を行った後、組み合わせ属性特徴ベクトルを前記第2敵対的生成ネットワークに出力する、
ことを特徴とする請求項13に記載の装置。 - 前記第1敵対的生成ネットワークは、m個の生成器G1~Gmを含み、それぞれの前記生成器Gjは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gjは、j番目の属性の特徴を学習するためのものであり、前記属性は、アイデンティティと、m-1個のドメインとを含み、前記アイデンティティに対応する生成器G1は前記主生成器であり、前記生成器G1に対応する識別器D11は前記主識別器であり、i,j,j’∈[m]であり、
前記第1敵対的生成ネットワークは、
全ての生成器Giを固定して、出力が、前記i番目の属性に対応するラベルyiに近くなるように、全ての識別器Dijを最適化させるステップと、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-yi)に近くなるように、全ての生成器Giを最適化させるステップを、
前記生成器Gi及び前記識別器Dijの訓練終了条件が満たされるまで、交互に実行する方式によって訓練されたものであり、
j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である、
ことを特徴とする請求項14又は15に記載の装置。 - 前記第2敵対的生成ネットワークは、主加法的空間変換ネットワークと、主認識ネットワークとを含み、前記アイデンティティ検証モジュールは、さらに、前記主加法的空間変換ネットワークを呼び出して、前記第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得し、前記主認識ネットワークを呼び出して、前記加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得する、
ことを特徴とする請求項13乃至15のいずれか1項に記載の装置。 - 前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせ、
ランダムに組み合わせられた組み合わせ属性特徴ベクトルに対して加法的敵対的な訓練を行う方式によって訓練されたものであり、
少なくとも1つの前記組み合わせ属性特徴ベクトルに対応する属性組み合わせは、前記訓練セットに現れない属性組み合わせであり、
前記第2敵対的生成ネットワークは、前記m個の属性に1対1で対応するm個の加法的空間変換ネットワークと、m個の認識ネットワークとを含み、j∈[m]であり、
前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、nr個の組み合わせ属性特徴ベクトルを生成するステップと、
前記nr個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせであるステップと、
前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、によって訓練されたものである、
ことを特徴とする請求項13乃至15のいずれか1項に記載の装置。 - コンピュータ機器であって、プロセッサとメモリとを備え、前記メモリには、コンピュータ読み取り可能な命令が記憶されており、前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されると、請求項1乃至11のいずれか1項に記載のアイデンティティ検証方法のステップを前記プロセッサに実行させる、ことを特徴とするコンピュータ機器。
- 請求項1乃至11のいずれか1項に記載のアイデンティティ検証方法のステップをコンピュータに実行させる、ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910336037.4A CN110059465B (zh) | 2019-04-24 | 2019-04-24 | 身份验证方法、装置及设备 |
CN201910336037.4 | 2019-04-24 | ||
PCT/CN2020/078777 WO2020215915A1 (zh) | 2019-04-24 | 2020-03-11 | 身份验证方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022529863A JP2022529863A (ja) | 2022-06-27 |
JP7213358B2 true JP7213358B2 (ja) | 2023-01-26 |
Family
ID=67320600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539985A Active JP7213358B2 (ja) | 2019-04-24 | 2020-03-11 | アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210326576A1 (ja) |
EP (1) | EP3961441B1 (ja) |
JP (1) | JP7213358B2 (ja) |
CN (1) | CN110059465B (ja) |
WO (1) | WO2020215915A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059465B (zh) * | 2019-04-24 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置及设备 |
CN110598578A (zh) * | 2019-08-23 | 2019-12-20 | 腾讯云计算(北京)有限责任公司 | 身份识别方法、身份识别系统的训练方法、装置及设备 |
US11455531B2 (en) * | 2019-10-15 | 2022-09-27 | Siemens Aktiengesellschaft | Trustworthy predictions using deep neural networks based on adversarial calibration |
CN111033532B (zh) * | 2019-11-26 | 2024-04-02 | 驭势(上海)汽车科技有限公司 | 生成对抗网络的训练方法和系统、电子设备和存储介质 |
CN111339890A (zh) * | 2020-02-20 | 2020-06-26 | 中国测绘科学研究院 | 基于高分辨率遥感影像提取新增建设用地信息的方法 |
CN112084962B (zh) * | 2020-09-11 | 2021-05-25 | 贵州大学 | 基于生成式对抗网络脸部隐私保护方法 |
CN112179503A (zh) * | 2020-09-27 | 2021-01-05 | 中国科学院光电技术研究所 | 基于稀疏子孔径夏克-哈特曼波前传感器的深度学习波前复原方法 |
CN112785495A (zh) * | 2021-01-27 | 2021-05-11 | 驭势科技(南京)有限公司 | 图像处理模型训练方法、图像生成方法、装置和设备 |
CN113658178B (zh) * | 2021-10-14 | 2022-01-25 | 北京字节跳动网络技术有限公司 | 组织图像的识别方法、装置、可读介质和电子设备 |
CN114499712B (zh) * | 2021-12-22 | 2024-01-05 | 天翼云科技有限公司 | 一种手势识别方法、设备及存储介质 |
CN114708667B (zh) * | 2022-03-14 | 2023-04-07 | 江苏东方数码系统集成有限公司 | 一种基于多重生物识别技术的安防方法及系统 |
CN114863213B (zh) * | 2022-05-11 | 2024-04-16 | 杭州电子科技大学 | 一种基于因果解耦生成模型的域泛化图像识别方法 |
CN116129473B (zh) * | 2023-04-17 | 2023-07-14 | 山东省人工智能研究院 | 基于身份引导的联合学习换衣行人重识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018199031A1 (ja) | 2017-04-27 | 2018-11-01 | 日本電信電話株式会社 | 学習型信号分離方法、及び学習型信号分離装置 |
JP2018194828A (ja) | 2017-05-16 | 2018-12-06 | 富士通株式会社 | マルチビューベクトルの処理方法及び装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022317A (zh) * | 2016-06-27 | 2016-10-12 | 北京小米移动软件有限公司 | 人脸识别方法及装置 |
KR102403494B1 (ko) * | 2017-04-27 | 2022-05-27 | 에스케이텔레콤 주식회사 | 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법 |
US10579785B2 (en) * | 2017-09-29 | 2020-03-03 | General Electric Company | Automatic authentification for MES system using facial recognition |
CN108229348B (zh) * | 2017-12-21 | 2020-04-28 | 中国科学院自动化研究所 | 遮挡人脸图像的识别装置 |
CN108090465B (zh) * | 2017-12-29 | 2020-05-01 | 国信优易数据有限公司 | 一种妆容效果处理模型训练方法及妆容效果处理方法 |
US10699161B2 (en) * | 2018-02-28 | 2020-06-30 | Fujitsu Limited | Tunable generative adversarial networks |
US10825219B2 (en) * | 2018-03-22 | 2020-11-03 | Northeastern University | Segmentation guided image generation with adversarial networks |
CN108766444B (zh) * | 2018-04-09 | 2020-11-03 | 平安科技(深圳)有限公司 | 用户身份验证方法、服务器及存储介质 |
CN109376769A (zh) * | 2018-09-21 | 2019-02-22 | 广东技术师范学院 | 基于生成式对抗神经网络用于多任务分类的信息迁移方法 |
CN109523463B (zh) * | 2018-11-20 | 2023-04-07 | 中山大学 | 一种基于条件生成对抗网络的人脸老化方法 |
US11275819B2 (en) * | 2018-12-05 | 2022-03-15 | Bank Of America Corporation | Generative adversarial network training and feature extraction for biometric authentication |
CN110059465B (zh) * | 2019-04-24 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置及设备 |
-
2019
- 2019-04-24 CN CN201910336037.4A patent/CN110059465B/zh active Active
-
2020
- 2020-03-11 WO PCT/CN2020/078777 patent/WO2020215915A1/zh unknown
- 2020-03-11 EP EP20794930.6A patent/EP3961441B1/en active Active
- 2020-03-11 JP JP2021539985A patent/JP7213358B2/ja active Active
-
2021
- 2021-06-25 US US17/359,125 patent/US20210326576A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018199031A1 (ja) | 2017-04-27 | 2018-11-01 | 日本電信電話株式会社 | 学習型信号分離方法、及び学習型信号分離装置 |
JP2018194828A (ja) | 2017-05-16 | 2018-12-06 | 富士通株式会社 | マルチビューベクトルの処理方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2022529863A (ja) | 2022-06-27 |
EP3961441A1 (en) | 2022-03-02 |
US20210326576A1 (en) | 2021-10-21 |
EP3961441B1 (en) | 2023-09-27 |
WO2020215915A1 (zh) | 2020-10-29 |
EP3961441A4 (en) | 2022-07-06 |
CN110059465B (zh) | 2023-07-25 |
CN110059465A (zh) | 2019-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7213358B2 (ja) | アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム | |
Venkateswara et al. | Deep-learning systems for domain adaptation in computer vision: Learning transferable feature representations | |
Koohzadi et al. | Survey on deep learning methods in human action recognition | |
CN107688823B (zh) | 一种图像特征获取方法及装置,电子设备 | |
EP1433118B1 (en) | System and method of face recognition using portions of learned model | |
CN113919344B (zh) | 文本处理方法和装置 | |
CN111695415A (zh) | 图像识别模型的构建方法、识别方法及相关设备 | |
Gao et al. | The labeled multiple canonical correlation analysis for information fusion | |
KR102264233B1 (ko) | 문장, 문서 특징값 및 문장 가중치 간의 상관관계를 학습한 인공 신경망에 의해 생성된 설명이 부가된 문서 분류 방법 | |
WO2020081256A1 (en) | Neural network architectures employing interrelatedness | |
JP2023537705A (ja) | オーディオ・ビジュアル・イベント識別システム、方法、プログラム | |
WO2023179429A1 (zh) | 一种视频数据的处理方法、装置、电子设备及存储介质 | |
EP4162341A1 (en) | System and method for predicting formation in sports | |
Zhang et al. | Rich feature combination for cost-based broad learning system | |
Boes et al. | Audiovisual transformer architectures for large-scale classification and synchronization of weakly labeled audio events | |
Liang et al. | Multi-modal human action recognition with sub-action exploiting and class-privacy preserved collaborative representation learning | |
Gao et al. | Generalized pyramid co-attention with learnable aggregation net for video question answering | |
EP4258178A1 (en) | Information processing apparatus for improving robustness of deep neural network by using adversarial training and formal method | |
CN113723111B (zh) | 一种小样本意图识别方法、装置、设备及存储介质 | |
CN114912540A (zh) | 迁移学习方法、装置、设备及存储介质 | |
Tsialiamanis et al. | An application of generative adversarial networks in structural health monitoring | |
KR20230092360A (ko) | Node 기반 조건부 테이블 데이터 적대적 생성 신경망 장치 및 방법 | |
CN114462546A (zh) | 一种基于多模型融合的特征蒸馏方法、系统、设备和介质 | |
JP2023503731A (ja) | ポイントクラウドデータ処理方法、装置、機器及び記憶媒体 | |
JP2021039749A (ja) | オン−デバイストレーニング基盤のユーザ認識方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7213358 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |