JP7213358B2 - アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム - Google Patents

アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム Download PDF

Info

Publication number
JP7213358B2
JP7213358B2 JP2021539985A JP2021539985A JP7213358B2 JP 7213358 B2 JP7213358 B2 JP 7213358B2 JP 2021539985 A JP2021539985 A JP 2021539985A JP 2021539985 A JP2021539985 A JP 2021539985A JP 7213358 B2 JP7213358 B2 JP 7213358B2
Authority
JP
Japan
Prior art keywords
attribute
network
identity verification
feature vector
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021539985A
Other languages
English (en)
Other versions
JP2022529863A (ja
Inventor
リアン,ジエン
ツァオ,ユィルェン
ジャン,チェンビン
バイ,クゥン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022529863A publication Critical patent/JP2022529863A/ja
Application granted granted Critical
Publication of JP7213358B2 publication Critical patent/JP7213358B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)
  • Machine Translation (AREA)

Description

本願は、2019年4月24日に中国特許庁に提出された、出願番号が第2019103360374号であり、発明の名称が「アイデンティティ検証方法、敵対的生成ネットワークの訓練方法、装置、及び機器」である、中国特許出願に基づく優先権を主張し、その全ての内容が、参照することにより本願に組み込まれている。
本願は、人工知能の分野に関し、特にアイデンティティ検証方法、装置、コンピュータ機器、及び記憶媒体に関する。
アイデンティティ検証技術とは、コンピュータシステムにおける一定の手段によって、ユーザのアイデンティティを確認する技術を指す。一般的なアイデンティティ検証技術は、顔認識、指紋認識、端末姿勢認識などを含む。
顔認識を例にすると、サーバには、ニューラルネットワークモデルが設けられている。検証対象ユーザの顔画像を収集すると、ニューラルネットワークモデルを呼び出して、顔画像を検証する。検証に成功した場合、検証対象ユーザのアイデンティティを決定し、検証に失敗した場合、エラー通知をフィードバックする。ここで、ニューラルネットワークモデルは、予め訓練セットによって訓練されたものである。
しかしながら、上記ニューラルネットワークモデルは、偏った予測を誤って学習する可能性がある。例えば、ユーザがひげを生やしたり、眼鏡をかけたり、季節に応じて着替えたりする場合、該ニューラルネットワークモデルによる検証に失敗する可能性がある。
本願で提供される各実施例によれば、アイデンティティ検証方法、装置、コンピュータ機器、及び記憶媒体を提供する。その構成は、以下のとおりである。
本願の一態様によれば、コンピュータ機器が実行するアイデンティティ検証方法が提供されている。前記方法は、
ユーザの原特徴を収集するステップであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、ステップと、
前記原特徴における主属性特徴ベクトルを抽出するステップであって、前記主属性特徴ベクトルは、前記原特徴における前記m-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である、ステップと、
前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得するステップと、を含む。
一実施例では、アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得する。ここで、前記アイデンティティ検証モデルは、
第1敵対的生成ネットワークを含み、又は、第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含み、
前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークであり、前記属性は、アイデンティティと、前記m-1種類のドメイン差異とを含む。
本願の一態様によれば、第1敵対的生成ネットワークの訓練方法が提供されている。前記第1敵対的生成ネットワークは、m個の生成器G~Gを含み、それぞれの前記生成器Gは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gは、j番目の属性の特徴を学習するためのものであり、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含み、i,j,j’∈[m]である。前記方法は、
全ての生成器Gを固定して、出力が、前記i番目の属性に対応するラベルyに近くなるように、全ての識別器Dijを最適化させるステップと、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-y)に近くなるように、全ての生成器Gを最適化させるステップと、を含む。
ここで、a番目の属性とb番目の属性に因果関係がある場合、識別器Dabの出力損失が逆伝播されない。
本願の一態様によれば、第2敵対的生成ネットワークの訓練方法が提供されている。前記第2敵対的生成ネットワークは、m個の属性に1対1で対応するm個の加法的空間変換ネットワークと、m個の認識ネットワークとを含み、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含み、j∈[m]であり、mは2よりも大きい整数である。前記方法は、
訓練セットから抽出された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成するステップと、
前記n個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、ステップと、
前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、を含む。
本願の別の態様によれば、アイデンティティ検証装置が提供されている。前記装置は、
ユーザの原特徴を収集する収集モジュールであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、収集モジュールと、
前記原特徴における主属性特徴ベクトルを抽出するアイデンティティ検証モジュールであって、前記主属性特徴ベクトルは、前記原特徴におけるm-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である、アイデンティティ検証モジュールと、を含み、
前記アイデンティティ検証モジュールは、さらに、前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する。
本願の別の態様によれば、プロセッサとメモリを備えるコンピュータ機器が提供されている。前記メモリには、コンピュータ読み取り可能な命令が記憶されており、前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されると、前記アイデンティティ検証方法のステップを前記プロセッサに実行させる。
本願の別の態様によれば、コンピュータ読み取り可能な命令を記憶したコンピュータ読み取り可能な記憶媒体が提供されている。前記コンピュータ読み取り可能な命令は、1つ又は複数のプロセッサによって実行されると、前記アイデンティティ検証方法のステップを前記1つ又は複数のプロセッサに実行させる。
本願の1つ又は複数の実施例の詳細は、以下の図面及び説明に記載されている。本願の他の特徴、目的、及び利点は、明細書、図面、及び特許請求の範囲から明らかになる。
本願の実施例の構成をより明確に説明するために、以下に、実施例の説明に必要な図面を簡単に紹介する。明らかに、以下の説明における図面は本願のいくつかの実施例を示しているに過ぎず、当業者であれば、創造的な労働をすることなく、これらの図面から他の図面を得ることもできる。
関連技術で提供されるアイデンティティ検証方法のフローチャートである。 本願の1つの例示的な実施例で提供されるアイデンティティ検証システムのブロック図である。 本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートである。 本願の1つの例示的な実施例で提供される第1敵対的生成ネットワーク及び第2敵対的生成ネットワークの動作時の2段階の模式図である。 本願の1つの例示的な実施例で提供される第1敵対的生成ネットワーク及び第2敵対的生成ネットワークのネットワーク構成図である。 本願の1つの例示的な実施例で提供される第1敵対的生成ネットワークの訓練方法のフローチャートである。 本願の1つの例示的な実施例で提供されるアイデンティティ検証ソフトウェアのインタフェースの模式図である。 本願の1つの例示的な実施例で提供される、因果関係に基づいてデカップリング学習を行うネットワークアーキテクチャの模式図である。 本願の1つの例示的な実施例で提供される第2敵対的生成ネットワークの訓練方法のフローチャートである。 本願の1つの例示的な実施例で提供される第2敵対的生成ネットワークの訓練原理の模式図である。 本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートである。 本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートである。 本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートである。 本願の1つの例示的な実施例で提供されるアイデンティティ検証装置のブロック図である。 本願の1つの例示的な実施例で提供される第1敵対的生成ネットワークの訓練装置のブロック図である。 本願の1つの例示的な実施例で提供される第2敵対的生成ネットワークの訓練装置のブロック図である。 本願の1つの例示的な実施例で提供されるコンピュータ機器のブロック図である。
本願の目的、構成、及び利点をより明確にするために、以下、図面を参照しながら、本願の実施形態をさらに詳しく説明する。
まず、本願の実施例で提供される若干の用語を解釈する。
アイデンティティ検証技術:コンピュータ手段によって、ユーザのアイデンティティを確認する技術を指す。一般的なアイデンティティ検証技術は、顔認識、指紋認識、声紋認識、虹彩認識、端末姿勢認識、歩行者再認識のうちの少なくとも1種を含む。
アイデンティティ検証モデル:アイデンティティ認識を行うためのニューラルネットワークモデルを指す。
顔認識:顔画像上の特徴点を利用して、ユーザのアイデンティティを確認する技術を指す。顔画像上の特徴点は、眉の特徴点、目の特徴点、口の特徴点、鼻の特徴点、耳の特徴点、頬の特徴点のうちの少なくとも1種を含むが、これらに限定されない。
端末姿勢認識:ユーザが端末(例えば、携帯電話)を使用する際に、端末内部のセンサによって収集されたユーザ操作の物理次元での操作特徴、例えば、押圧力の強さ、押圧頻度、押圧位置、本体の振動周波数、本体の振動周期、本体の変位の大きさなどに応じて、ユーザのアイデンティティを確認する技術を指す。
ドメイン:訓練セット内のサンプルサブセットに対して全体的な分布偏差を発生させる要素である。例えば、顔認識の場合、異なるユーザの髪の色である黒色、黄色、及び白色は、ドメインの差異とみなされてもよく、異なるユーザが眼鏡をかけているか否かも、ドメインの差異とみなされてもよく、異なるユーザがひげを生やしているか否かも、ドメインの差異とみなされる。
転移学習:データにドメインの差別が存在する場合、学習システムを構築して、ドメインの差異を処理する。
負の転移:転移学習における概念であり、ある転移学習方法が訓練セットに使用されるため、テストセットにおける正確率が下がるという現象を記述するものである。
敵対的生成ネットワーク(GAN:Generative Adversarial Network):近年、広く研究されている生成モデルであり、実際のデータ分布を捕捉する能力を有する。
生成器(Generator):GANの重要な構成部分であり、十分に現実的なデータを生成する役割を担う。
識別器(Discriminator):GANにおいて生成器と相互に競合する部分であり、生成器によって生成されたデータが実際のデータに近いか否かを判断する役割を担う。
アイデンティティ検証モデルを用いてアイデンティティ検証を行う過程において、アイデンティティ検証モデルは、ユーザのグループ化/クラスタリングによって、偏った予測を誤って学習する可能性がある。例えば、顔認識検証の場合、ユーザがひげを生やしたり眼鏡をかけたりすると、検証に失敗する可能性がある。また、歩行者再認識の分野では、季節に応じて人々が着替えたり、異なる角度のカメラで画像を収集したりする場合にも、検証に失敗する可能性がある。
関連技術では、ドメイン差異によるアイデンティティ検証の正確性への影響を解消する方法が提供されている。このような方法は、転移成分分析(TCA:Transfer Component Analysis)、深層適応ネットワーク(DAN:Deep Adaptation Network)、勾配反転(RevGrad:Reversing Gradient)、敵対的識別ドメイン適応(ADDA:Aversarial Discriminative Domain Adaptation)を含むが、これらに限定されない。
このような方法では、主分類タスク(例えば、アイデンティティ検証)を学習するとともに、学習される特徴のドメイン差異を解消する。アイデンティティ検証に異なる携帯電話機種のドメイン差異が存在するとすれば、図1に示すように、該アイデンティティ検証モデルは、生成器12と、タスク識別器(Task Discriminator)14と、差異識別器(Bias Discriminator)16とを含む。ここで、生成器12は、原特徴から特徴ベクトルを抽出し、タスク識別器14は、特徴ベクトルに基づいて、アイデンティティ、例えば、ユーザ1、ユーザ2、及びユーザ3を認識し、差異識別器16は、特徴ベクトルに基づいて、機種、例えば、機種1、機種2、及び機種3を識別する。つまり、原特徴は、生成器(Generator)12によって学習され、出力する特徴ベクトルは、アイデンティティ認識と機種識別とを同時に行う必要がある。差異識別器16は、敵対的学習によって、生成器12から出力された特徴ベクトルにおける機種識別に関する特徴情報を解消し、タスク識別器14は、ユーザに対してアイデンティティ認識を行う。
アイデンティティ検証モデルに影響を与えるドメイン差異が、例えば、髪の色、髪型、眼鏡、ひげ、イヤリングなど、複数種類であり得るので、複数種類のドメイン差異が存在し、且つドメイン差異が2つずつ依存関係を有する場合、上記の構成では、以下の2つの問題が生じる可能性がある。1、依存関係を有するドメイン差異を強制的にデカップリングして、負の転移を引き起こす可能性がある。2、無関係の属性のドメイン差異に対するデカップリングが不十分であることにより、学習された特徴に多すぎる属性依存が依然として存在する可能性がある。
本願では、複数種類のドメイン差異によるアイデンティティ検証への影響をできるだけ解消することができ、ドメイン差異が複数種類存在するアイデンティティ検証のシナリオに適用できる不偏アイデンティティ検証方式を提供する。
図2は、本願の1つの例示的な実施例で提供されるアイデンティティ検証システムのブロック図を示す。該アイデンティティ検証システムは、端末120と、ネットワーク140と、サーバ160とを含む。
端末120は、携帯電話、タブレットコンピュータ、デスクトップコンピュータ、ノートパソコン、監視カメラなどの機器であってもよい。端末120は、アイデンティティ検証を必要とする端末である。端末120は、アイデンティティ検証に必要な原特徴を収集する。原特徴は、顔データ、端末センサデータ、虹彩データ、指紋データ、声紋データのうちの少なくとも1種を含む。いくつかの実施例では、端末120にユーザアカウントがログインされてもよく、つまり、端末120は、プライベート機器であってもよい。別のいくつかの実施例では、端末120は、監視の性質を有する監視機器である。
端末120は、ネットワーク140を介して、サーバ160に接続されてもよい。ネットワーク140は、有線ネットワーク又は無線ネットワークであってもよい。端末120は、認証データをサーバ160に伝送し、サーバ160は、アイデンティティ検証を行った後に、アイデンティティ検証結果を端末120に返送するようにしてもよい。
サーバ160は、アイデンティティ検証を行うためのバックエンドサーバである。サーバ160には、アイデンティティ検証用のニューラルネットワークモデル(以下、アイデンティティ検証モデルと略称)が設けられている。該アイデンティティ検証モデルは、不偏表現である特徴データに基づいてアイデンティティ検証を行うことができる。
図3は、本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートを示す。該アイデンティティ検証方法は、訓練段階220と、テスト(及び適用)段階240とを含む。
訓練段階220では、アイデンティティ検証モデルを訓練するための訓練セットを構築する。該訓練セットは、各サンプルの原特徴221、アイデンティティラベル222、及び複数種類のドメイン差異ラベル223を含む。任意選択的に、各サンプルそれぞれは、1つのユーザに対応するものであり、原特徴221は、アイデンティティ検証過程において収集されたユーザ特徴データである。アイデンティティラベル222は、該ユーザのアイデンティティを標識するためのものであり、ドメイン差異ラベル223は、該ユーザのドメイン差異を標識するためのものである。ドメイン差異に髪の色の差異とひげの差異とが含まれる場合を例にして、表1に2組のサンプルを模式的に示す。
Figure 0007213358000001
該訓練セットを用いて、アイデンティティ検証モデルに対してデカップリング学習224を行う。該デカップリング学習224は、アイデンティティ検証を主学習タスクとして、複数種類のドメイン差異を補助学習タスクとするものである。各サンプルについて、アイデンティティ及びそれぞれのドメイン差異は、いずれも、1つの属性とみなされる。各属性については、敵対的学習の方法によって各属性のデカップリングした表現を学習する(つまり、各属性の特徴ベクトルをできるだけ独立して抽出する)ことにより、この隠れ層空間に他の属性の分類情報が含まれないようにする。これにより、最終的に学習されたアイデンティティ検証モデル242は、複数種類のドメイン差異によるアイデンティティ検証への影響をできるだけ無視して、正確なアイデンティティ検証結果を出力することができる。
テスト(及び適用)段階240では、テストセットにおける原特徴241をアイデンティティ検証モデル242に入力して、不偏アイデンティティ検証を行い、さらに、アイデンティティ検証結果(即ち、アイデンティティラベル243)を出力する。テストに合格した場合、該アイデンティティ検証モデル242を実際に適用する。
図4は、本願の1つの例示的な実施例で提供されるアイデンティティ検証モデル242の構成ブロック図を示す。該アイデンティティ検証モデル242は、第1敵対的生成ネットワーク242aと、第2敵対的生成ネットワーク242bとを含む。
第1敵対的生成ネットワーク242aは、因果関係に基づいて、m-1種類のドメイン差異特徴に対して選択的デカップリングを行うことにより訓練されたネットワークであり、mは2よりも大きい整数である。第2敵対的生成ネットワーク242bは、第1敵対的生成ネットワーク242aから出力された異なる属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークである。
第1敵対的生成ネットワーク242a及び第2敵対的生成ネットワーク242bは、2つの段階のデカップリング学習を実現する。
段階1において、第1敵対的生成ネットワーク242aは、属性間の非対称的な因果関係に基づいて、デカップリングした特徴表現を学習する。つまり、第1敵対的生成ネットワーク242aは、因果関係を持つ第1ドメイン差異特徴と第2ドメイン差異特徴が原特徴に存在する場合、第2ドメイン差異特徴に対して敵対的学習を行う過程において、第1ドメイン差異特徴とのデカップリング学習を無視する方式によって訓練されたものである。
したがって、第1敵対的生成ネットワーク242aは、因果関係を持つ少なくとも2種類のドメイン差異をデカップリングする際に、因果関係を持つ少なくとも2種類のドメイン差異に対して強制的なデカップリングを行わないため、負の転移を引き起こすことはなく、又はその確率が極めて小さい。
段階2において、まず、異なる属性の属性特徴ベクトルをランダムに組み合わせることにより、サンプルに現れない新しい組み合わせを形成し、次に、第2敵対的生成ネットワーク242bが加法的敵対的学習に基づいてデカップリングを行うことにより、さらなるデカップリング学習を実現する。つまり、第2敵対的生成ネットワークは、第1敵対的生成ネットワーク242aによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせて、訓練セットに現れない属性組み合わせを形成した後に、加法的敵対的な訓練を行う方式によって訓練されたネットワークである。
したがって、ランダムに組み合わせて、訓練セットに現れないサンプル組み合わせを形成することにより、第2敵対的生成ネットワーク242bは、無関係の属性のドメイン差異を十分にデカップリングすることができる。これにより、無関係の属性のドメイン差異に対するデカップリングが不十分であることに起因して、学習された特徴に多すぎる属性依存が依然として存在するという問題を解決する。
説明すべきものとして、上記第1敵対的生成ネットワーク242aは、単独で実施してもよい。つまり、第2敵対的生成ネットワーク242bは、任意選択的な部分である。
第1敵対的生成ネットワーク242a
図5を参照すると、第1敵対的生成ネットワーク242aは、基本生成器G、m個の生成器(属性特徴学習ネットワークとも呼ばれる)G~G、m*m個の識別器D11~Dmmを含む。
基本生成器Gは、原特徴xを変換することにより、グローバル属性特徴ベクトルfを取得し、
それぞれの生成器Gは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gは、j番目の属性の特徴を学習するためのものであり、属性は、アイデンティティと、m-1個のドメインとを含む。生成器の数は属性の数mと同じであり、mは2よりも大きい整数であり(図5では、m=3を例にして説明しているが、3に限定されない)。つまり、図5における属性は、アイデンティティと、少なくとも2つのドメインとを含む。
各生成器G~Gは、それぞれ、現在の属性に関連する識別情報を抽出して、他の属性とのデカップリング後の該属性の属性特徴ベクトルを学習する。j∈[m]の場合、j番目の生成器は、j番目の属性に関連する。
本願で設計される敵対的学習方法は、各属性特徴ベクトルに、該属性に関連する識別情報だけが含まれることを含む。本願では、行列Λ∈Rm*mが与えられる場合を考慮する。この行列には、2つずつの属性の間の因果関係が含まれる。次に、各j∈[m]について、本願では、j番目の属性とm個の属性との間の因果関係を処理するために、m個の識別ネットワークDj1,…,Djmを構築する。各Diiは、i番目の属性の特徴を学習するためのものであり、各Dijは、i番目の属性の敵対的学習において、j番目の属性の特徴を解消するためのものである。
アイデンティティに対応する生成器Gは、主生成器と呼んでもよく、他の生成器G及びGは、それぞれ、1つのドメインに対応するものである。また、それぞれの生成器は、n個の識別器に対応するものである。識別器D11は、主識別器と呼んでもよい。
ここで、主生成器Gは、グローバル属性特徴ベクトルfに対して特徴抽出を行うことにより、第1主属性特徴ベクトルfを取得する。第1敵対的生成ネットワーク242aが単独でアイデンティティ検証モデルとして用いられる場合、主識別器D11は、第1主属性特徴ベクトルfに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する。又は、第1敵対的生成ネットワーク242aと第2敵対的生成ネットワーク242bとがカスケードでアイデンティティ検証モデルとして用いられる場合、主識別器D11は、第1主属性特徴ベクトルfに対して第1識別を行った後、組み合わせ属性特徴ベクトルfを第2敵対的生成ネットワーク242bに出力する。
図5に基づいて、以下のようにパラメータを定義する。
[k]:添字集合{1,2,…,k}を表す。
[-i]:i番目の元素を除去した添字集合を表す。
n:サンプルの数;
m:属性の数;
d:特徴の次元数;
Y∈Rn*n:n個の独立したサンプルy(i∈[n])が含まれる出力/属性/ラベル行列;
X∈Rn*d:n個の独立したサンプルx(i∈[n])が含まれる入力/特徴行列;
本願では、Yに欠損値が含まれることが許可される。観測されたラベルの添字集合として、Ω={(i,j);i∈[n],j∈[m],yijは観測されたラベル値である}を定義する。モデルは、それに対応する特徴及び属性ラベルにて訓練される。
本願では、Yに含まれるものが全てカテゴリ変数であり、即ち、各j∈[m]について、yij∈[k]となると仮定する。
一般性を失わずに、Yの第1列がアイデンティティラベルであり、残りの列が複数種類のドメイン差異ラベルであると仮定する。
第1敵対的生成ネットワーク242aの訓練
第1敵対的生成ネットワーク242aの訓練は、典型的な敵対的学習ネットワークの訓練過程である。生成器G~Gは、いずれも、特徴抽出に用いられる。識別器D11~Dmmは、2種類に分けられる。全てのi、j∈[m](i≠j)について、
(1)各識別器Diiは、i番目の属性の特徴を学習するためのものであり、各識別器Dijは、j番目の属性の特徴を解消するためのものである。
(2)各識別器Diiの学習は、標準的な教師あり学習を用い、各識別器Dijの学習は、敵対的学習を用いる。
識別器Dijの敵対的学習のフローは、交互に実行される下記2つのステップとみなされてもよい。
ステップ601では、全てのGを固定して、出力が、それに対応するワンホットエンコーディングのラベルyに近くなるように、Dijを最適化させる。
ステップ602では、全てのDijを固定して、出力が、それに対応する(1-y)に近くなるように、全てのGを最適化させる。
ここで、a番目の属性とb番目の属性に因果関係がある場合、識別器Dabの出力損失が逆伝播されない。i,j,j’∈[m]である。
ステップ603では、生成器G及び識別器Dijの訓練終了条件が満たされるまで、上記2つのステップを交互に実行する。
任意選択的に、訓練終了条件は、損失関数が目標値に収束すること、又は、訓練回数が所定の回数に達することを含む。
段階1において、敵対的学習の最終的な目的は、全てのGが、それに対応するi番目の属性の特徴を抽出できるが、それに対応する他の属性の特徴を抽出できないようにすることである。このように、i番目の属性は、他の属性とデカップリングされることが可能になる。
第1敵対的生成ネットワーク242aの敵対的学習の最適化問題は、以下のとおりである。
まずは、属性学習の最適化問題である。つまり、生成器Gの損失関数:
Figure 0007213358000002
ここで、Latは属性学習の損失関数であり、wはj番目の属性の重みであり、Gは基本生成器であり、Gはj番目の属性に対応する生成器であり、Djjはjj番目の識別器であり、jは[m]に属する。
次は、ドメイン差異の識別学習である。つまり、識別器の損失関数:
Figure 0007213358000003

ここで、
Figure 0007213358000004
はyij’に対するワンホットエンコーディングベクトルであり、Ladは敵対的学習の損失関数であり、
Figure 0007213358000005
は(j,j’)属性対の重みであり、j,j’は[m+1]に属し、xは訓練セットにおける原特徴である。
ステップ3は、ドメイン差異の解消である。
Figure 0007213358000006
ここで、
Figure 0007213358000007
であり、1kj’は、次元がkj’である全1ベクトルである。
ステップ3において、本願は属性学習も同時に強化させる。
Figure 0007213358000008

本願で前述した非対称的な因果関係を用いたストラテジーによれば、本願では、属性j’の変化が属性jの変化を引き起こす場合、Λjj’=0にし、それ以外の場合、Λjj’=1にする。言い換えれば、j’番目の属性とj番目の属性に因果関係がある場合、前記識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である。
識別ネットワークの最後の層の活性化関数はsoftmaxであり、Latは交差エントロピー損失であり、Ladは平均二乗誤差損失である。上記4つの最適化問題は、ループで順次実行される。ここで、ループごとに、最初の2つの最適化問題は1ステップで最適化され、最後の2つの最適化問題は5ステップで最適化される。
図7に示すような模式的な例では、端末のセンサデータを用いて、アイデンティティ認証を行う。端末がスマートフォンである場合を例にする。スマートフォンには、重力加速度センサ及びジャイロセンサが設けられている。ユーザがスクリーン上のパスワード「171718」をタップすると、重力加速度センサ及びジャイロセンサは、ユーザの操作特徴を収集し、さらにセンサデータを生成する。このセンサデータは、ユーザのアイデンティティを検証することに使用可能である。ただし、各端末のオペレーティングシステム及び本体の厚さが異なり、異なるオペレーティングシステムは、異なるデータ形式でセンサデータを報告し、異なる本体の厚さも、センサによって収集されるセンサデータに影響を与える。したがって、図8の例では、第1敵対的生成ネットワーク242aが基本生成器G、主生成器G、副生成器G、及び副生成器Gを含むと仮定する。この例では、主生成器Gに対応するネットワークは、アイデンティティ認識について教師あり学習を行い、システム識別及び厚さ識別について敵対的学習を行う。これにより、主生成器Gによって抽出された特徴には、アイデンティティ認識の情報のみが含まれ、システム識別及び厚さ識別の特徴が含まれない。同様に、副生成器Gによって抽出された特徴には、システム識別の特徴のみが含まれ、アイデンティティ認識及び厚さ識別の特徴が含まれない。同様に、副生成器Gによって抽出された特徴には、厚さ識別の特徴のみが含まれる。
本願では、2つずつの属性の間の因果関係が利用されている。具体的には、属性ごとに、本願では、他の全ての属性の集合における1つのサブセットを選択して、デカップリングを行う。選択は、各属性と他の属性との因果関係に基づいて行われる。即ち、他の属性が、該属性の変化を引き起こす原因とされない場合、他の属性は、該属性とのデカップリングを行うことができる。このような技術によれば、本願の方法は、属性の選択を柔軟に行う能力を有する。これにより、全ての他の属性(特に因果関係がある属性)を強制的にデカップリングすることによる負の転移が回避されるとともに、デカップリングされる属性が少なすぎることによる属性依存が回避される。図8を例にして、厚さの変化がシステムの変化を引き起こすとすれば、システム識別という属性については、厚さ識別とのデカップリングを行うことができない。一方、厚さ識別に関して、システムの変化が厚さの変化の原因ではないため、厚さ識別という属性は、システム識別という属性とのデカップリングを行うことができる。このため、図8に示す構成となり、副生成器Gのネットワークには、厚さ識別の敵対的な目標が除去される。しかし、副生成器Gのネットワークには、システム識別の敵対的な目標が除去されない。
本願において、上記の非対称的な因果関係を利用する理由は、以下のとおりである。図8を例にして、厚さの変化が必ずシステムの変化を引き起こすとすれば、副生成器Gにおける特徴から、システムの変化を認識することができると、厚さの変化が認識されないことは不可能である。これは、厚さの変化が必ず認識可能なシステムの変化を引き起こすとすれば、その結果、最終的に厚さの変化が認識されるからである。しかし、逆の場合、このような関係はない。
第2敵対的生成ネットワーク242b
図5に示すように、第2敵対的生成ネットワーク242bは、m個の加法的空間変換ネットワークT~T、及びm個の認識ネットワークR~Rを含む。
第1敵対的生成ネットワーク242aによる組み合わせ属性特徴ベクトルは、m個の加法的空間変換ネットワークT~Tのそれぞれによって、m個の加法的特徴ベクトルs,…,sに変換される。m個の加法的特徴ベクトルの加算によって、1つの和特徴ベクトルuが形成され、次に、認識のために、m個の属性にそれぞれ対応するm個の認識ネットワークR,…,Rに送られる。
ここで、m個の加法的空間変換ネットワークのうち、アイデンティティ認識に対応する加法的空間変換ネットワークTは、主加法的空間変換ネットワークと呼んでもよく、m個の認識ネットワークのうち、アイデンティティ認識に対応する認識ネットワークRは、主認識ネットワークと呼んでもよい。
第2敵対的生成ネットワーク242bの訓練
図9は、本願の1つの例示的な実施例で提供される第2敵対的生成ネットワーク242bの訓練方法のフローチャートを示す。該方法は、以下のステップを含む。
ステップ901では、第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成する。
ステップ902では、n個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割する。第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、訓練セットに現れない属性組み合わせである。
第1敵対的生成ネットワーク242aによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成する。各組み合わせ属性特徴ベクトルは、それぞれ、属性組み合わせに対応するものであり、属性組み合わせに基づいて、訓練セットに現れる属性組み合わせと、訓練セットに現れない属性組み合わせとの2つのサブセットに分けられる。以下の2つの添字集合Ω及びΩを定義する。
Ω={i∈n}:訓練セットで見たことのある属性組み合わせの添字;
Ω={i∈n}:訓練セットで見たことのない属性組み合わせの添字。
ステップ903では、第1ベクトル集合及び第2ベクトル集合を用いて、加法的空間変換ネットワーク及び認識ネットワークを予測する。
j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである。
ステップ904では、訓練過程で生じた、第1ベクトル集合の第1損失に対して、各属性に対応する認識ネットワーク及び加法的空間変換ネットワークに第1損失を逆伝播して訓練する。
各j∈[m]について、下記の最適化問題を最適化させる。
Figure 0007213358000009
ここで、Lは認識損失関数であり、w は属性jの重みである。Rはj番目の属性に対応する加法的空間変換ネットワークであり、Tはj番目の属性に対応する認識ネットワークであり、Tj’はj’番目の属性に対応する認識ネットワークであり、fij’はi番目のサンプルのj’番目の属性の隠れ層特徴ベクトルであり、符号「~」はランダムに組み合わせたものを表す。s.t.はsubject toの略語であり、uが制約条件を満たすようにすることを表す。
ステップ905では、訓練過程で生じた、第2ベクトル集合の第2損失に対して、他の属性に対応する認識ネットワーク及び加法的空間変換ネットワークに第2損失を逆伝播して訓練する。
各j∈[m]について、下記の最適化問題を最適化させる。
Figure 0007213358000010

ここで、Lは認識損失関数であり、w は属性jの重みである。Rはj番目の属性に対応する加法的空間変換ネットワークであり、Tはj番目の属性に対応する認識ネットワークであり、Tj’はj’番目の属性に対応する認識ネットワークであり、fij’はi番目のサンプルのj’番目の属性の隠れ層特徴ベクトルであり、符号「~」はランダムに組み合わせたものを表す。s.t.はsubject toの略語であり、uが制約条件を満たすようにすることを表す。
全ての認識ネットワーク(Rネットワーク)の最後の層の活性化関数もsoftmax関数である。Lは交差エントロピー損失関数である。
加法的敵対的ネットワークの最適化メカニズムは、図10に示すとおりである。最初の2つの属性が、それぞれ、物体カテゴリ及び色カテゴリであると仮定する。加法的敵対的ネットワークの最初の2つのブランチは、この2つの属性の学習に順次対応するものである。まず、見たことのある属性組み合わせの訓練が完了したと仮定する。例えば、白い山は、物体「山」及び色「白」として精確に認識されることができる。次に、見たことのない属性組み合わせである白い山と緑の木に関して、本願は、物体「山」及び色「緑」をネットワークに出力させる。見たことのある組み合わせの訓練が完了したと仮定する前提で、現在出力された色が「緑」でなければ、誤差がネットワークの1番目のブランチにおける「白」の情報に由来することを信じる理由がある。この場合、本願では、2番目のブランチの出力に生じた色誤差を1番目のブランチに返して、それにおける色情報を解消する。このようにすると、1番目のブランチにおける色情報によるドメイン差異が解消される。
説明すべきものとして、上記の訓練セットでは、各ユーザ群が、1種類のドメイン、例えば、1つの機器タイプのみに対応するものである。ユーザ群は、ドメイン差別に応じて分割される。1つのドメイン上で訓練されたモデルは、他のドメイン上でテストする必要がある。表2に示すように、各ユーザ群は、1種類のドメイン差別しか考慮していない。実際の適用では、複数種類のドメイン差別が可能である。例えば、顔検証の場合、眼鏡、髪型、ひげの差別は、いずれも、ドメイン差別とみなされる。
Figure 0007213358000011
本願の一例として、上記各実施例における基本生成器G、m個の生成器(属性特徴学習ネットワークとも呼ばれる)G~G、m個の加法的空間変換ネットワークT~Tは、任意のニューラルネットワークであってもよい。
本願の一例として、上記各実施例における識別器、m*m個の識別器D11~Dmm、m個の認識ネットワークR~Rの最後の層の活性化関数は、softmax関数、sigmoid関数、tanh関数、一次関数、swish活性化関数、relu活性化関数のうちのいずれか1つであってもよい。
本願の一例として、損失関数(段階1のLatとLad、段階2のLを含む)は、いずれも、交差エントロピー損失(cross entropy loss)、ロジスティック損失(logistic loss)、平均二乗損失(mean square loss)、二乗損失(square loss)、lノルム損失、及びlノルム損失であってもよい。
本願の一例として、上記各実施例において、
Figure 0007213358000012
であり、ここで、1kj’は、次元がkj’である全1ベクトルである。)である。ここでの
Figure 0007213358000013
は、次元がkj’である他の4種類のベクトルに置き換えてもよい。
(1)全0ベクトル;
(2)全1ベクトル;
(3)全0.5ベクトル;
(4)r∈[kj’]について、r次元目は、
Figure 0007213358000014
とされ、ここで、I()は特性関数であり、即ち、訓練セットにおけるラベルの事前確率に従って値を取る。
アイデンティティ検証段階
図11は、本願の1つの例示的な実施例で提供されるアイデンティティ検証方法のフローチャートを示す。該方法は、図1に示すサーバによって実行されてもよい。該方法は、以下のステップを含む。
ステップ1101では、ユーザの原特徴を収集する。原特徴にm-1種類のドメイン差異特徴が存在する。
ドメインは、訓練セット内のサンプルサブセットに対して全体的な分布偏差を発生させる要素である。ドメインは、髪の色、ひげ、眼鏡、機種、オペレーティングシステム、本体の厚さ、アプリケーションタイプのうちの少なくとも2種類を含むが、これらに限定されない。mは2よりも大きい整数である。
ステップ1102では、原特徴における主属性特徴ベクトルを抽出する。主属性特徴ベクトルは、原特徴におけるm-1種類のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である。
任意選択的に、サーバは、アイデンティティ検証モデルを呼び出して、原特徴における主属性特徴ベクトルを抽出する。該アイデンティティ検証モデルは、
第1敵対的生成ネットワークを含み、又は、第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含む。
ここで、第1敵対的生成ネットワークは、因果関係に基づいて、m-1種類のドメイン差異特徴に対して選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークである。
ステップ1103では、主属性特徴ベクトルに基づいて、アイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する。
任意選択的に、サーバは、アイデンティティ検証モデルを呼び出して、主属性特徴ベクトルに基づいて、アイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する。
ステップ1104では、アイデンティティ検証結果に従ってターゲット操作を行う。
ターゲット操作は、アイデンティティ検証に関連するセンシティブな操作であってもよい。ターゲット操作は、スクリーンロックインタフェースのロック解除、秘密空間のロック解除、支払行動の承認、振替行動の承認、復号化行動の承認などを含むが、これらに限定されない。
本願の実施例は、「ターゲット操作」の具体的な操作形態について限定しない。
前記のように、本実施例で提供される方法では、アイデンティティ検証モデルによって、原特徴における主属性特徴ベクトルを抽出し、主属性特徴ベクトルに基づいて、アイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する。該主属性特徴ベクトルが、原特徴における複数種類のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現であるため、複数種類のドメイン差異特徴によるアイデンティティ検証過程への影響ができるだけ解消され、原特徴にドメイン差異(例えば、ひげを生やしたり、髪型を変えたりする)が存在しても、アイデンティティ検証が正確に実現できる。
説明すべきものとして、アイデンティティ検証段階では、第1敵対的生成ネットワークについて、第1敵対的生成ネットワークの基本生成器、主生成器、及び主識別器のみが必要であり、第2敵対的生成ネットワークについて、主加法的空間変換ネットワーク及び主認識ネットワークのみが必要である。
第1敵対的生成ネットワークが単独でアイデンティティ検証モデルとして用いられる場合を例にすると、対応するアイデンティティ検証方法は、下記の実施例を参照する。第1敵対的生成ネットワークは、基本生成器、主生成器、及び主識別器を含む。
図12は、本願の他の例示的な実施例で提供されるアイデンティティ検証方法のフローチャートを示す。該方法は、図1に示すサーバによって実行されてもよい。該方法は、以下のステップを含む。
ステップ1201では、ユーザの原特徴を収集する。原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する。
ステップ1202では、基本生成器を呼び出して、原特徴をグローバル属性特徴ベクトルに変換する。
基本生成器Gは、図5に示すように、原特徴xをグローバル属性特徴ベクトルfに変換するためのものである。グローバル属性特徴ベクトルfには、アイデンティティ属性の特徴と、m-1個のドメイン差異特徴とが混在している。
ステップ1203では、主生成器を呼び出して、グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得する。
主生成器Gは、グローバル属性特徴ベクトルfに対して特徴抽出を行うことにより、第1主属性特徴ベクトルfを取得するためのものである。第1主属性特徴ベクトルfは、アイデンティティ属性に対応する特徴ベクトルである(m-1種類のドメイン差異特徴に対してデカップリングを行った)。第1主属性特徴ベクトルfは、原特徴におけるm-1種類のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である。
ステップ1204では、主識別器を呼び出して、第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する。
主識別器D11は、第1主属性特徴ベクトルに対してアイデンティティラベル予測を行うことにより、対応するアイデンティティラベルを出力するためのものである。アイデンティティラベルは、アイデンティティラベルiに属すること、又は、既存のいずれのアイデンティティラベルにも属しないことを含む。
ステップ1205では、アイデンティティ検証結果に従ってターゲット操作を行う。
ターゲット操作は、アイデンティティ検証に関連するセンシティブな操作であってもよい。ターゲット操作は、スクリーンロックインタフェースのロック解除、秘密空間のロック解除、支払行動の承認、振替行動の承認、復号化行動の承認などを含むが、これらに限定されない。
本願の実施例は、「ターゲット操作」の具体的な操作形態について限定しない。
前記のように、本実施例で提供される方法では、第1敵対的生成ネットワークによって、不偏アイデンティティ検証を行う。第1敵対的生成ネットワークは、因果関係を持つ少なくとも2種類のドメイン差異をデカップリングする際に、因果関係を持つ少なくとも2種類のドメイン差異に対して強制的なデカップリングを行わないため、負の転移を引き起こすことはなく、又はその確率が極めて小さい。これにより、因果関係を持つ少なくとも2種類のドメイン差異を良くデカップリングすることができ、優れた不偏アイデンティティ検証結果が取得される。
第1敵対的生成ネットワークと第2敵対的生成ネットワークとがカスケードでアイデンティティ検証モデルとして用いられる場合を例にすると、対応するアイデンティティ検証方法は、下記の実施例を参照する。第1敵対的生成ネットワークは、基本生成器、主生成器、及び主識別器を含み、第2敵対的生成ネットワークは、主加法的空間変換ネットワーク及び主認識ネットワークを含む。
図13は、本願の他の例示的な実施例で提供されるアイデンティティ検証方法のフローチャートを示す。該方法は、図1に示すサーバによって実行されてもよい。該方法は、以下のステップを含む。
ステップ1301では、ユーザの原特徴を収集する。前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する。
ステップ1302では、第1敵対的生成ネットワークの基本生成器を呼び出して、原特徴をグローバル属性特徴ベクトルに変換する。
基本生成器Gは、図5に示すように、原特徴xをグローバル属性特徴ベクトルfに変換するためのものである。グローバル属性特徴ベクトルfには、アイデンティティ属性の特徴と、m-1個のドメイン差異特徴とが混在している。
ステップ1303では、第1敵対的生成ネットワークの主生成器を呼び出して、グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得する。
主生成器Gは、グローバル属性特徴ベクトルfに対して特徴抽出を行うことにより、第1主属性特徴ベクトルfを取得するためのものである。第1主属性特徴ベクトルfは、アイデンティティ属性に対応する特徴ベクトルであり(m-1種類のドメイン差異特徴に対してデカップリングを行った)。第1主属性特徴ベクトルfは、原特徴におけるm-1種類のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である。
ステップ1304では、第1敵対的生成ネットワークの主識別器を呼び出して、第1主属性特徴ベクトルに対して第1識別を行った後、組み合わせ属性特徴ベクトルを第2敵対的生成ネットワークに出力する。
主識別器D11は、第1主属性特徴ベクトルfに対して第1識別を行った後、組み合わせ属性特徴ベクトルf’を第2敵対的生成ネットワークに出力するためのものである。
ステップ1305では、第2敵対的生成ネットワークの主加法的空間変換ネットワークを呼び出して、第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得する。
主加法的空間変換ネットワークTは、第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルf’を変換することにより、加法的特徴ベクトルSを取得する。
ステップ1306では、第2敵対的生成ネットワークの主認識ネットワークを呼び出して、加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得する。
主認識ネットワークRは、加法的特徴ベクトルSに対してアイデンティティラベル予測を行って、対応するアイデンティティラベルを出力する。アイデンティティラベルは、アイデンティティラベルiに属すること、又は、既存のいずれのアイデンティティラベルにも属しないことを含む。
説明すべきものとして、図5と異なる点は、予測段階において、ランダムな組み合わせ過程、及び複数の加法的特徴ベクトルの加算過程を行う必要がないことである。
ステップ1307では、アイデンティティ検証結果に従ってターゲット操作を行う。
ターゲット操作は、アイデンティティ検証に関連するセンシティブな操作であってもよい。ターゲット操作は、スクリーンロックインタフェースのロック解除、秘密空間のロック解除、支払行動の承認、振替行動の承認、復号化行動の承認などを含むが、これらに限定されない。
本願の実施例は、「ターゲット操作」の具体的な操作形態について限定しない。
前記のように、本実施例で提供される方法では、第1敵対的生成ネットワークによって、不偏アイデンティティ検証を行う。第1敵対的生成ネットワークは、因果関係を持つ少なくとも2種類のドメイン差異をデカップリングする際に、因果関係を持つ少なくとも2種類のドメイン差異に対して強制的なデカップリングを行わないため、負の転移を引き起こすことはなく、又はその確率が極めて小さい。これにより、因果関係を持つ少なくとも2種類のドメイン差異を良くデカップリングすることができ、優れた不偏アイデンティティ検証結果が取得される。
これに加えて、本実施例で提供される方法では、第1敵対的生成ネットワークの後に第2敵対的生成ネットワークをカスケードすることによって、不偏アイデンティティ検証を行う。第2敵対的生成ネットワークが無関係の属性のドメイン差異を十分にデカップリングするため、無関係の属性のドメイン差異に対するデカップリングが不十分であることにより、学習された特徴に多すぎる属性依存が依然として存在するという問題が解決される。これにより、複数種類のドメイン差異の間に暗黙的な関係属性が存在する場合においても、複数種類のドメイン差異を良くデカップリングすることができ、デカップリング性能を向上させ、より優れた不偏アイデンティティ検証結果が取得される。
本願で提供されるアイデンティティ検証方法は、下記のシナリオに適用できる。
1、顔認識に基づくアイデンティティ検証シナリオ
顔認識技術を用いてアイデンティティ検証を行う場合、端末は、ユーザの顔画像を収集して、アイデンティティ認識を行う。同一のユーザの場合、該ユーザが、ひげを生やすか生やさないか、長い髪にするか短い髪にするか、眼鏡をかけるかかけないかを選択し得るため、同一のユーザの異なる顔画像にドメイン差異特徴が存在する。これらのドメイン差異特徴は、いずれも、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
2、センサデータに基づくアイデンティティ検証シナリオ
センサデータを用いてアイデンティティ検証を行う場合、端末内に加速度センサ及び/又はジャイロセンサが設けられており、センサによって、ユーザが端末を使用するときの行動特徴を収集する。行動特徴は、ユーザが端末をクリックする力の強さ、ユーザが端末をクリックする頻度、ユーザが端末を連続的にクリックする場合の一時停止のリズムの特徴を含む。異なるセンサから報告されたセンサデータのフォーマットが異なり、異なるオペレーティングシステムによるセンサデータのフォーマットへの要求が異なり、異なる形状及び厚さの端末(同じセンサが取り付けられている)によって収集された行動特徴も異なるが、現在のユーザは、1年1回新しい端末(例えば、携帯電話)に交換し得る。その結果、同一のユーザアカウントは、異なる端末上でアイデンティティ検証を行う場合、ドメイン差異特徴が存在する。これらのドメイン差異特徴は、いずれも、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
3、指紋データに基づくアイデンティティ検証シナリオ
指紋データを用いてアイデンティティ検証を行う場合、端末内に指紋センサが設けられており、指紋センサによって、ユーザが端末を使用するときの指紋特徴を収集する。異なる指紋センサから報告された指紋データのフォーマットが異なるため、ユーザが端末を交換すると、同一のユーザアカウントは、異なる端末上でアイデンティティ検証を行う場合、ドメイン差異特徴が存在する。これらのドメイン差異特徴は、いずれも、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
4、虹彩認識に基づくアイデンティティ検証シナリオ
虹彩認識技術を用いてアイデンティティ検証を行う場合、端末は、ユーザの虹彩画像を収集して、アイデンティティ認識を行う。同一のユーザの場合、該ユーザは、コンタクトレンズを着用している場合も、コンタクトレンズを着用していない場合もある。異なるコンタクトレンズには、異なる模様がある可能性もある。このようなコンタクトレンズに起因するドメイン差異は、アイデンティティ検証の検証結果が正確であるか否かに影響を及ぼす。これらのドメイン差異特徴によるアイデンティティ検証過程への影響を解消するために、上記の実施例におけるアイデンティティ検証方法を使用してもよい。これにより、ドメイン差異特徴が存在する場合にも、アイデンティティ検証結果を正確に取得することができる。
以下は、本願の実施例で提供される装置の実施例である。装置の実施例において詳しく説明されていない詳細については、装置の実施例と1対1で対応する上記の方法の実施例を参照すればよい。
図14は、本願の1つの例示的な実施例で提供されるアイデンティティ検証装置のブロック図を示す。該装置は、ソフトウェア、ハードウェア、又は両者の組み合わせによって、サーバの全部又は一部として実現されてもよい。該装置は、収集モジュール1420と、アイデンティティ検証モジュール1440と、操作モジュール1460とを含む。
収集モジュール1420は、ユーザの原特徴を収集し、原特徴にm-1種類のドメイン差異特徴が存在する。
アイデンティティ検証モジュール1440は、前記原特徴における主属性特徴ベクトルを抽出し、前記主属性特徴ベクトルは、前記原特徴におけるm-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った不偏特徴表現である。
前記アイデンティティ検証モジュール1440は、さらに、前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する。
操作モジュール1460は、前記アイデンティティ検証結果に従ってターゲット操作を行う。
1つの可能な実現形態において、アイデンティティ検証モジュール1440は、アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得する。ここで、前記アイデンティティ検証モデルは、第1敵対的生成ネットワークを含み、又は、前記第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含む。
1つの可能な実現形態において、前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
前記アイデンティティ検証モジュール1440は、前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換し、
前記アイデンティティ検証モジュール1440は、前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得し、
前記アイデンティティ検証モジュール1440は、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得し、又は、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに第1識別を行った後、組み合わせ属性特徴ベクトルを前記第2敵対的生成ネットワークに出力する。
1つの可能な実現形態において、前記第1敵対的生成ネットワークは、
因果関係を持つ第1ドメイン差異特徴と第2ドメイン差異特徴が前記原特徴に存在する場合、前記第2ドメイン差異特徴に対して敵対的学習を行う過程において、前記第1ドメイン差異特徴とのデカップリング学習を無視する方式によって訓練されたものである。
1つの可能な実現形態において、前記第1敵対的生成ネットワークは、m個の生成器G~Gを含み、それぞれの前記生成器Gは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gは、j番目の属性の特徴を学習するためのものであり、前記アイデンティティに対応する生成器Gは前記主生成器であり、前記生成器Gに対応する識別器D11は前記主識別器であり、i,j,j’∈[m]であり、
前記第1敵対的生成ネットワークは、
全ての生成器Gを固定して、出力が、前記i番目の属性に対応するラベルyに近くなるように、全ての識別器Dijを最適化させ、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-y)に近くなるように、全ての生成器Gを最適化させる方式によって訓練されたものであり、
j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である。
1つの可能な実現形態において、前記第2敵対的生成ネットワークは、主加法的空間変換ネットワークと、主認識ネットワークとを含み、
前記アイデンティティ検証モジュール1440は、前記主加法的空間変換ネットワークを呼び出して、前記第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得し、
前記アイデンティティ検証モジュール1440は、前記主認識ネットワークを呼び出して、前記加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得する。
1つの可能な実現形態では、前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせ、
ランダムに組み合わせられた組み合わせ属性特徴ベクトルに対して加法的敵対的な訓練を行う方式によって訓練されたものであり、
少なくとも1つの前記組み合わせ属性特徴ベクトルに対応する属性組み合わせは、前記訓練セットに現れない属性組み合わせである。
1つの可能な実現形態において、前記第2敵対的生成ネットワークは、前記m個の属性に1対1で対応するm個の加法的空間変換ネットワーク及びm個の認識ネットワークを含み、j∈[m]であり、
前記第2敵対的生成ネットワークは、
前記第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成するステップと、
前記n個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、ステップと、
前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、によって訓練されたものである。
図15は、本願の1つの例示的な実施例で提供される第1敵対的生成ネットワークの訓練装置のブロック図を示す。該装置は、ソフトウェア、ハードウェア、又は両者の組み合わせによって、サーバの全部又は一部として実現されてもよい。前記第1敵対的生成ネットワークは、m個の生成器G~Gを含み、それぞれの前記生成器Gは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gは、j番目の属性の特徴を学習するためのものであり、前記属性は、アイデンティティと、m-1個のドメインとを含み、i,j,j’∈[m]であり、該装置は、
全ての生成器Gを固定して、出力が、前記i番目の属性に対応するラベルyに近くなるように、全ての識別器Dijを最適化させる第1訓練モジュール1520と、
全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-y)に近くなるように、全ての生成器Gを最適化させる第2訓練モジュール1540と、
前記生成器G及び前記識別器Dijの訓練終了条件が満たされるまで、上記2つのステップを交互に実行するように、前記第1訓練モジュール1520及び前記第2訓練モジュール1540を制御する交互モジュール1560と、を含み、
j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である。
図16は、本願の1つの例示的な実施例で提供される第2敵対的生成ネットワークの訓練装置のブロック図を示す。該装置は、ソフトウェア、ハードウェア、又は両者の組み合わせによって、サーバの全部又は一部として実現されてもよい。前記第2敵対的生成ネットワークは、m個の属性に1対1で対応するm個の加法的空間変換ネットワーク及びm個の認識ネットワークを含み、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含み、j∈[m]であり、mは2よりも大きい整数であり、該装置は、
訓練セットから抽出された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成するランダム組み合わせモジュール1620と、
前記n個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割する集合分割モジュール1640であって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、集合分割モジュール1640と、
前記第1ベクトル集合と前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測する前方訓練モジュール1660であって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル予測を行うためのものである、前方訓練モジュール1660と、
予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播する誤差フィードバックモジュール1680と、を含み、
前記誤差フィードバックモジュール1680は、予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播する。
説明すべきものとして、上記の実施例で提供されるアイデンティティ検証装置がアイデンティティを検証する際には、上記の各機能モジュールの分割のみを例として説明されているが、実際の適用では、必要に応じて、上記の機能を異なる機能モジュールに割り当てて完了し、即ち、機器の内部構成を異なる機能モジュールに分割して、以上に説明した全部又は一部の機能を完了してもよい。また、上記の実施例で提供されるアイデンティティ検証装置は、アイデンティティ検証方法の実施例と同一の構想に属し、その具体的な実現過程の詳細は、方法の実施例を参照すればよく、ここでは説明を省略する。
図17は、本願の1つの実施例で提供されるコンピュータ機器1700の構成ブロック図を示す。該コンピュータ機器1700は、携帯電話、タブレットコンピュータ、スマートテレビ、マルチメディア再生機器、ウェアラブル機器、デスクトップコンピュータ、サーバなどの電子機器であってもよい。該コンピュータ機器1700は、上記の実施例で提供されるアイデンティティ検証方法、第1敵対的生成ネットワークの訓練方法、第2敵対的生成ネットワークの訓練方法のうちのいずれか1つを実施するために使用できる。
通常、コンピュータ機器1700は、プロセッサ1701とメモリ1702とを備える。
プロセッサ1701は、1つ又は複数の処理コアを含んでもよく、例えば、4コアプロセッサ、8コアプロセッサなどである。プロセッサ1701は、デジタル信号プロセッサ(DSP:Digital Signal Processor)、フィールドプログラマブルゲートアレイ(FPGA:Field-Programmable Gate Array)、プログラマブルロジックアレイ(PLA:Programmable Logic Array)のうちの少なくとも1つのハードウェアの形で実現されてもよい。プロセッサ1701は、メインプロセッサとコプロセッサとを含んでもよい。メインプロセッサは、ウェイク状態でデータを処理するためのプロセッサであり、中央処理装置(CPU:Central Processing Unit)とも呼ばれる。コプロセッサは、スタンバイ状態でデータを処理するための低消費電力プロセッサである。いくつかの実施例において、プロセッサ1701には、グラフィック処理ユニット(GPU:Graphics Processing Unit)が組み込まれてもよい。GPUは、ディスプレイに表示しようとするコンテンツのレンダリング及び描画を担当する。いくつかの実施例において、プロセッサ1701は、機械学習に関する演算操作を処理するための人工知能(AI:Artificial Intelligence)プロセッサを含んでもよい。
メモリ1702は、1つ又は複数のコンピュータ読み取り可能な記憶媒体を含んでもよい。該コンピュータ読み取り可能な記憶媒体は、非一時的なものとし得る。メモリ1702は、高速ランダムアクセスメモリ、及び不揮発性メモリ、例えば、1つ又は複数のディスク記憶装置、フラッシュメモリ記憶装置を含んでもよい。いくつかの実施例において、メモリ1702内の非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令を記憶する。該少なくとも1つの命令は、プロセッサ1701によって実行されると、本願の方法の実施例で提供されるアイデンティティ検証方法、第1敵対的生成ネットワークの訓練方法、第2敵対的生成ネットワークの訓練方法のうちのいずれか1つを実現させる。
いくつかの実施例において、コンピュータ機器1700は、任意選択的に、周辺機器インタフェース1703及び少なくとも1つの周辺機器をさらに含む。プロセッサ1701、メモリ1702、及び周辺機器インタフェース1703の間には、バス又は信号線を介して接続されてもよい。各周辺機器は、バス、信号線、又は回路基板を介して、周辺機器インタフェース1703に接続されてもよい。具体的には、周辺機器は、ディスプレイ1704、オーディオ回路1705、通信インタフェース1706、及び電源1707のうちの少なくとも1つを含む。
当業者であれば理解できるように、図17に示す構成が、コンピュータ機器1700を限定するものではなく、コンピュータ機器1700は、図示より多く又は少ないコンポーネントを含んでもよく、あるいはいくらかのコンポーネントを組み合わせたものであってもよく、あるいはコンポーネントの異なる配置を採用してもよい。
例示的な実施例では、コンピュータ機器がさらに提供されている。前記コンピュータ機器は、プロセッサとメモリとを備え、メモリには、コンピュータ読み取り可能な命令が記憶されており、コンピュータ読み取り可能な命令は、プロセッサによって実行されると、上記のアイデンティティ検証方法、第1敵対的生成ネットワークの訓練方法、第2敵対的生成ネットワークの訓練方法のうちのいずれか1つをプロセッサに実行させる。
例示的な実施例では、コンピュータ読み取り可能な記憶媒体がさらに提供されている。前記記憶媒体には、コンピュータ読み取り可能な命令が記憶されており、コンピュータ読み取り可能な命令は、1つ又は複数のプロセッサによって実行されると、上記アイデンティティ検証方法を1つ又は複数のプロセッサに実行させる。任意選択的に、上記コンピュータ読み取り可能な記憶媒体は、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、コンパクトディスク読み出し専用メモリ(CD-ROM:Compact Disc Read-Only Memory)、磁気テープ、フロッピーディスク(登録商標)や光データ記憶機器などであってもよい。
例示的な実施例では、コンピュータ読み取り可能な命令製品がさらに提供されている。該コンピュータ読み取り可能な命令製品は、実行されると、上記のアイデンティティ検証方法、第1敵対的生成ネットワークの訓練方法、第2敵対的生成ネットワークの訓練方法のうちのいずれか1つを実現させる。
理解すべきものとして、本文で言及される「複数」とは、2つ以上を意味する。「及び/又は」は、関連対象の関連関係を記述するものであり、3種類の関係が存在し得ることを表す。例えば、A及び/又はBは、Aが単独で存在すること、A及びBが同時に存在すること、Bが単独で存在することの3種類の場合を表すことができる。符号「/」は、一般的に、前後の関連対象に「又は」という関係があることを表す。
当業者であれば理解できるように、上記実施例を実現するためのステップの全部又は一部は、ハードウェアによって実行されてもよいし、プログラムを介して関連ハードウェアに指示することにより実行されてもよい。前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。上記で言及された記憶媒体は、読み出し専用メモリ、磁気ディスク、又は光ディスクなどであってもよい。
上記は、本願の好ましい実施例に過ぎず、本願の保護範囲を限定するものではない。本願の精神および原則内で行われる種々の修正、均等置換え、改善などは全て本願の保護範囲内に含まれるべきである。

Claims (20)

  1. コンピュータ機器が実行するアイデンティティ検証方法であって、
    ユーザの原特徴を収集するステップであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、ステップと、
    前記原特徴における主属性特徴ベクトルを抽出するステップであって、前記主属性特徴ベクトルは、前記原特徴における前記m-1種類のドメイン差異特徴に対して選択的デカップリングを行った特徴表現であり、各ドメイン差異特徴が1つの属性と見なされ、前記選択的デカップリングは、2つの属性の間の因果関係を利用し、属性ごとに、他の属性が該属性の変化を引き起こす原因でない場合、前記他の属性とのデカップリング学習を適用し、他の属性が該属性の変化を引き起こす原因である場合には、前記他の属性とのデカップリング学習を無視する、ステップと、
    前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得するステップと、
    を含む方法。
  2. 前記原特徴における主属性特徴ベクトルを抽出する前記ステップは、
    アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得するステップを含み、
    前記アイデンティティ検証モデルは、第1敵対的生成ネットワークを含み、
    前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して前記選択的デカップリングを行うことにより訓練されたネットワークである、
    ことを特徴とする請求項1に記載の方法。
  3. 前記原特徴における主属性特徴ベクトルを抽出する前記ステップは、
    アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得するステップを含み、
    前記アイデンティティ検証モデルは、第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含み、
    前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して前記選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークであり、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
    アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことは、
    前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換するステップと、
    前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得するステップと、を含み、
    前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する前記ステップは、
    前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得するステップを含む、
    ことを特徴とする請求項2又は3に記載の方法。
  5. 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
    アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことは、
    前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換するステップと、
    前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得するステップと、を含み、
    前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する前記ステップは、
    前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対して第1識別を行った後、組み合わせ属性特徴ベクトルを前記第2敵対的生成ネットワークに出力するステップを含む、
    ことを特徴とする請求項3に記載の方法。
  6. 前記第1敵対的生成ネットワークは、
    因果関係を持つ第1ドメイン差異特徴と第2ドメイン差異特徴が前記原特徴に存在する場合、前記第2ドメイン差異特徴に対して敵対的学習を行う過程において、前記第1ドメイン差異特徴とのデカップリング学習を無視する方式によって訓練されたものである、
    ことを特徴とする請求項2乃至5のいずれか1項に記載の方法。
  7. 前記第1敵対的生成ネットワークは、m個の生成器G~Gを含み、それぞれの前記生成器Gは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gは、j番目の属性の特徴を学習するためのものであり、前記属性は、アイデンティティと、m-1個のドメインとを含み、前記アイデンティティに対応する生成器Gは前記主生成器であり、前記生成器Gに対応する識別器D11は前記主識別器であり、i,j,j’∈[m]であり、
    前記第1敵対的生成ネットワークは、
    全ての生成器Gを固定して、出力が、前記i番目の属性に対応するラベルyに近くなるように、全ての識別器Dijを最適化させるステップと、
    全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-y)に近くなるように、全ての生成器Gを最適化させるステップを、
    前記生成器G及び前記識別器Dijの訓練終了条件が満たされるまで、交互に実行する方式によって訓練されたものであり、
    j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である、
    ことを特徴とする請求項4又は5に記載の方法。
  8. 前記識別器D11~Dmmは2種類に分けられ、全てのiについて、j∈[m]、i≠jであり、
    各識別器Diiは、i番目の属性の特徴を学習するためのものであり、各識別器Dijは、j番目の属性の特徴を解消するためのものであり、
    各識別器Diiの学習は、標準的な教師あり学習を用い、各識別器Dijの学習は、敵対的学習を用いる、
    ことを特徴とする請求項7に記載の方法。
  9. 前記第2敵対的生成ネットワークは、主加法的空間変換ネットワークと、主認識ネットワークとを含み、
    前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する前記ステップは、
    前記主加法的空間変換ネットワークを呼び出して、前記第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得するステップと、
    前記主認識ネットワークを呼び出して、前記加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得するステップと、を含む、
    ことを特徴とする請求項3に記載の方法。
  10. 前記第2敵対的生成ネットワークは、
    前記第1敵対的生成ネットワークによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせ、
    ランダムに組み合わせられた組み合わせ属性特徴ベクトルに対して加法的敵対的な訓練を行う方式によって訓練されたものであり、
    少なくとも1つの前記組み合わせ属性特徴ベクトルに対応する属性組み合わせは、前記訓練セットに現れない属性組み合わせである、
    ことを特徴とする請求項3、5又は9に記載の方法。
  11. 前記第2敵対的生成ネットワークは、前記m個の属性に1対1で対応するm個の加法的空間変換ネットワークと、m個の認識ネットワークとを含み、j∈[m]であり、
    前記第2敵対的生成ネットワークは、
    前記第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成するステップと、
    前記n個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせである、ステップと、
    前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
    予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
    予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、によって訓練されたものである、
    ことを特徴とする請求項10に記載の方法。
  12. アイデンティティ検証装置であって、
    ユーザの原特徴を収集する収集モジュールであって、前記原特徴にm-1種類(mは2よりも大きい整数である)のドメイン差異特徴が存在する、収集モジュールと、
    前記原特徴における主属性特徴ベクトルを抽出するアイデンティティ検証モジュールであって、前記主属性特徴ベクトルは、前記原特徴におけるm-1種類(mは2よりも大きい整数である)のドメイン差異特徴に対して選択的デカップリングを行った特徴表現であり、各ドメイン差異特徴が1つの属性と見なされ、前記選択的デカップリングは、2つの属性の間の因果関係を利用し、属性ごとに、他の属性が該属性の変化を引き起こす原因でない場合、前記他の属性とのデカップリング学習を適用し、他の属性が該属性の変化を引き起こす原因である場合には、前記他の属性とのデカップリング学習を無視する、アイデンティティ検証モジュールと、を含み、
    前記アイデンティティ検証モジュールは、さらに、前記主属性特徴ベクトルに基づいて、不偏アイデンティティ検証処理を行うことにより、アイデンティティ検証結果を取得する、
    ことを特徴とする装置。
  13. 前記アイデンティティ検証モジュールは、さらに、アイデンティティ検証モデルを呼び出して、前記原特徴に対して特徴抽出を行うことにより、前記原特徴における主属性特徴ベクトルを取得し、
    前記アイデンティティ検証モデルは、第1敵対的生成ネットワークを含み、又は、前記第1敵対的生成ネットワークと、第2敵対的生成ネットワークとを含み、前記第1敵対的生成ネットワークは、因果関係に基づいて、前記m-1種類のドメイン差異特徴に対して前記選択的デカップリングを行うことにより訓練されたネットワークであり、前記第2敵対的生成ネットワークは、前記第1敵対的生成ネットワークによって抽出された、異なる属性の属性特徴ベクトルをランダムに組み合わせた後に、加法的敵対的な訓練を行って得られたネットワークであり、前記属性は、アイデンティティと、m-1種類のドメイン差異とを含む、
    ことを特徴とする請求項12に記載の装置。
  14. 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
    前記アイデンティティ検証モジュールは、さらに、前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換し、前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得し、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに対してアイデンティティ検証を行うことにより、アイデンティティ検証結果を取得する、
    ことを特徴とする請求項13に記載の装置。
  15. 前記第1敵対的生成ネットワークは、基本生成器と、主生成器と、主識別器とを含み、
    前記アイデンティティ検証モジュールは、さらに、前記基本生成器を呼び出して、前記原特徴をグローバル属性特徴ベクトルに変換し、前記主生成器を呼び出して、前記グローバル属性特徴ベクトルに対して特徴抽出を行うことにより、第1主属性特徴ベクトルを取得し、前記主識別器を呼び出して、前記第1主属性特徴ベクトルに第1識別を行った後、組み合わせ属性特徴ベクトルを前記第2敵対的生成ネットワークに出力する、
    ことを特徴とする請求項13に記載の装置。
  16. 前記第1敵対的生成ネットワークは、m個の生成器G~Gを含み、それぞれの前記生成器Gは、m個の識別器Dj1~Djmに対応するものであり、j番目の生成器Gは、j番目の属性の特徴を学習するためのものであり、前記属性は、アイデンティティと、m-1個のドメインとを含み、前記アイデンティティに対応する生成器Gは前記主生成器であり、前記生成器Gに対応する識別器D11は前記主識別器であり、i,j,j’∈[m]であり、
    前記第1敵対的生成ネットワークは、
    全ての生成器Gを固定して、出力が、前記i番目の属性に対応するラベルyに近くなるように、全ての識別器Dijを最適化させるステップと、
    全ての識別器Dijを固定して、出力が、前記i番目の属性に対応する(1-y)に近くなるように、全ての生成器Gを最適化させるステップを、
    前記生成器G及び前記識別器Dijの訓練終了条件が満たされるまで、交互に実行する方式によって訓練されたものであり、
    j’番目の属性とj番目の属性に因果関係がある場合、識別器Djj’の出力損失が逆伝播されず、i,j,j’∈[m]である、
    ことを特徴とする請求項14又は15に記載の装置。
  17. 前記第2敵対的生成ネットワークは、主加法的空間変換ネットワークと、主認識ネットワークとを含み、前記アイデンティティ検証モジュールは、さらに、前記主加法的空間変換ネットワークを呼び出して、前記第1敵対的生成ネットワークから出力された組み合わせ属性特徴ベクトルを変換することにより、加法的特徴ベクトルを取得し、前記主認識ネットワークを呼び出して、前記加法的特徴ベクトルに対してアイデンティティ認識を行うことにより、アイデンティティ検証結果を取得する、
    ことを特徴とする請求項13乃至15のいずれか1項に記載の装置。
  18. 前記第2敵対的生成ネットワークは、
    前記第1敵対的生成ネットワークによって訓練セットから抽出された異なる属性特徴ベクトルをランダムに組み合わせ、
    ランダムに組み合わせられた組み合わせ属性特徴ベクトルに対して加法的敵対的な訓練を行う方式によって訓練されたものであり、
    少なくとも1つの前記組み合わせ属性特徴ベクトルに対応する属性組み合わせは、前記訓練セットに現れない属性組み合わせであり、
    前記第2敵対的生成ネットワークは、前記m個の属性に1対1で対応するm個の加法的空間変換ネットワークと、m個の認識ネットワークとを含み、j∈[m]であり、
    前記第2敵対的生成ネットワークは、
    前記第1敵対的生成ネットワークによって生成された、異なる属性に対応する属性特徴ベクトルをランダムに組み合わせて、n個の組み合わせ属性特徴ベクトルを生成するステップと、
    前記n個の組み合わせ属性特徴ベクトルを第1ベクトル集合及び第2ベクトル集合に分割するステップであって、第1ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れる属性組み合わせであり、第2ベクトル集合における組み合わせ属性特徴ベクトルの属性組み合わせは、前記訓練セットに現れない属性組み合わせであるステップと、
    前記第1ベクトル集合及び前記第2ベクトル集合を用いて、前記加法的空間変換ネットワーク及び前記認識ネットワークを予測するステップであって、j番目の加法的空間変換ネットワークは、j番目の組み合わせ属性特徴ベクトルをj番目の加法的特徴ベクトルに変換するためのものであり、j番目の認識ネットワークは、m個の加法的特徴ベクトルの和特徴ベクトルに対して、j番目の属性に対応するラベル認識を行うためのものである、ステップと、
    予測過程で生じた、前記第1ベクトル集合の第1損失に対して、各属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第1損失を逆伝播するステップと、
    予測過程で生じた、前記第2ベクトル集合の第2損失に対して、他の属性に対応する前記認識ネットワーク及び前記加法的空間変換ネットワークに前記第2損失を逆伝播するステップと、によって訓練されたものである、
    ことを特徴とする請求項13乃至15のいずれか1項に記載の装置。
  19. コンピュータ機器であって、プロセッサとメモリとを備え、前記メモリには、コンピュータ読み取り可能な命令が記憶されており、前記コンピュータ読み取り可能な命令は、前記プロセッサによって実行されると、請求項1乃至11のいずれか1項に記載のアイデンティティ検証方法のステップを前記プロセッサに実行させる、ことを特徴とするコンピュータ機器。
  20. 請求項1乃至11のいずれか1項に記載のアイデンティティ検証方法のステップをコンピュータに実行させる、ことを特徴とするコンピュータプログラム。
JP2021539985A 2019-04-24 2020-03-11 アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム Active JP7213358B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910336037.4A CN110059465B (zh) 2019-04-24 2019-04-24 身份验证方法、装置及设备
CN201910336037.4 2019-04-24
PCT/CN2020/078777 WO2020215915A1 (zh) 2019-04-24 2020-03-11 身份验证方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022529863A JP2022529863A (ja) 2022-06-27
JP7213358B2 true JP7213358B2 (ja) 2023-01-26

Family

ID=67320600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021539985A Active JP7213358B2 (ja) 2019-04-24 2020-03-11 アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20210326576A1 (ja)
EP (1) EP3961441B1 (ja)
JP (1) JP7213358B2 (ja)
CN (1) CN110059465B (ja)
WO (1) WO2020215915A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059465B (zh) * 2019-04-24 2023-07-25 腾讯科技(深圳)有限公司 身份验证方法、装置及设备
CN110598578A (zh) * 2019-08-23 2019-12-20 腾讯云计算(北京)有限责任公司 身份识别方法、身份识别系统的训练方法、装置及设备
US11455531B2 (en) * 2019-10-15 2022-09-27 Siemens Aktiengesellschaft Trustworthy predictions using deep neural networks based on adversarial calibration
CN111033532B (zh) * 2019-11-26 2024-04-02 驭势(上海)汽车科技有限公司 生成对抗网络的训练方法和系统、电子设备和存储介质
CN111339890A (zh) * 2020-02-20 2020-06-26 中国测绘科学研究院 基于高分辨率遥感影像提取新增建设用地信息的方法
CN112084962B (zh) * 2020-09-11 2021-05-25 贵州大学 基于生成式对抗网络脸部隐私保护方法
CN112179503A (zh) * 2020-09-27 2021-01-05 中国科学院光电技术研究所 基于稀疏子孔径夏克-哈特曼波前传感器的深度学习波前复原方法
CN112785495A (zh) * 2021-01-27 2021-05-11 驭势科技(南京)有限公司 图像处理模型训练方法、图像生成方法、装置和设备
CN113658178B (zh) * 2021-10-14 2022-01-25 北京字节跳动网络技术有限公司 组织图像的识别方法、装置、可读介质和电子设备
CN114499712B (zh) * 2021-12-22 2024-01-05 天翼云科技有限公司 一种手势识别方法、设备及存储介质
CN114708667B (zh) * 2022-03-14 2023-04-07 江苏东方数码系统集成有限公司 一种基于多重生物识别技术的安防方法及系统
CN114863213B (zh) * 2022-05-11 2024-04-16 杭州电子科技大学 一种基于因果解耦生成模型的域泛化图像识别方法
CN116129473B (zh) * 2023-04-17 2023-07-14 山东省人工智能研究院 基于身份引导的联合学习换衣行人重识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199031A1 (ja) 2017-04-27 2018-11-01 日本電信電話株式会社 学習型信号分離方法、及び学習型信号分離装置
JP2018194828A (ja) 2017-05-16 2018-12-06 富士通株式会社 マルチビューベクトルの処理方法及び装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022317A (zh) * 2016-06-27 2016-10-12 北京小米移动软件有限公司 人脸识别方法及装置
KR102403494B1 (ko) * 2017-04-27 2022-05-27 에스케이텔레콤 주식회사 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법
US10579785B2 (en) * 2017-09-29 2020-03-03 General Electric Company Automatic authentification for MES system using facial recognition
CN108229348B (zh) * 2017-12-21 2020-04-28 中国科学院自动化研究所 遮挡人脸图像的识别装置
CN108090465B (zh) * 2017-12-29 2020-05-01 国信优易数据有限公司 一种妆容效果处理模型训练方法及妆容效果处理方法
US10699161B2 (en) * 2018-02-28 2020-06-30 Fujitsu Limited Tunable generative adversarial networks
US10825219B2 (en) * 2018-03-22 2020-11-03 Northeastern University Segmentation guided image generation with adversarial networks
CN108766444B (zh) * 2018-04-09 2020-11-03 平安科技(深圳)有限公司 用户身份验证方法、服务器及存储介质
CN109376769A (zh) * 2018-09-21 2019-02-22 广东技术师范学院 基于生成式对抗神经网络用于多任务分类的信息迁移方法
CN109523463B (zh) * 2018-11-20 2023-04-07 中山大学 一种基于条件生成对抗网络的人脸老化方法
US11275819B2 (en) * 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication
CN110059465B (zh) * 2019-04-24 2023-07-25 腾讯科技(深圳)有限公司 身份验证方法、装置及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199031A1 (ja) 2017-04-27 2018-11-01 日本電信電話株式会社 学習型信号分離方法、及び学習型信号分離装置
JP2018194828A (ja) 2017-05-16 2018-12-06 富士通株式会社 マルチビューベクトルの処理方法及び装置

Also Published As

Publication number Publication date
JP2022529863A (ja) 2022-06-27
EP3961441A1 (en) 2022-03-02
US20210326576A1 (en) 2021-10-21
EP3961441B1 (en) 2023-09-27
WO2020215915A1 (zh) 2020-10-29
EP3961441A4 (en) 2022-07-06
CN110059465B (zh) 2023-07-25
CN110059465A (zh) 2019-07-26

Similar Documents

Publication Publication Date Title
JP7213358B2 (ja) アイデンティティ検証方法、アイデンティティ検証装置、コンピュータ機器、及びコンピュータプログラム
Venkateswara et al. Deep-learning systems for domain adaptation in computer vision: Learning transferable feature representations
Koohzadi et al. Survey on deep learning methods in human action recognition
CN107688823B (zh) 一种图像特征获取方法及装置,电子设备
EP1433118B1 (en) System and method of face recognition using portions of learned model
CN113919344B (zh) 文本处理方法和装置
CN111695415A (zh) 图像识别模型的构建方法、识别方法及相关设备
Gao et al. The labeled multiple canonical correlation analysis for information fusion
KR102264233B1 (ko) 문장, 문서 특징값 및 문장 가중치 간의 상관관계를 학습한 인공 신경망에 의해 생성된 설명이 부가된 문서 분류 방법
WO2020081256A1 (en) Neural network architectures employing interrelatedness
JP2023537705A (ja) オーディオ・ビジュアル・イベント識別システム、方法、プログラム
WO2023179429A1 (zh) 一种视频数据的处理方法、装置、电子设备及存储介质
EP4162341A1 (en) System and method for predicting formation in sports
Zhang et al. Rich feature combination for cost-based broad learning system
Boes et al. Audiovisual transformer architectures for large-scale classification and synchronization of weakly labeled audio events
Liang et al. Multi-modal human action recognition with sub-action exploiting and class-privacy preserved collaborative representation learning
Gao et al. Generalized pyramid co-attention with learnable aggregation net for video question answering
EP4258178A1 (en) Information processing apparatus for improving robustness of deep neural network by using adversarial training and formal method
CN113723111B (zh) 一种小样本意图识别方法、装置、设备及存储介质
CN114912540A (zh) 迁移学习方法、装置、设备及存储介质
Tsialiamanis et al. An application of generative adversarial networks in structural health monitoring
KR20230092360A (ko) Node 기반 조건부 테이블 데이터 적대적 생성 신경망 장치 및 방법
CN114462546A (zh) 一种基于多模型融合的特征蒸馏方法、系统、设备和介质
JP2023503731A (ja) ポイントクラウドデータ処理方法、装置、機器及び記憶媒体
JP2021039749A (ja) オン−デバイストレーニング基盤のユーザ認識方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230116

R150 Certificate of patent or registration of utility model

Ref document number: 7213358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150