JP7484054B2 - 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム、及び類似度計算プログラム - Google Patents

学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム、及び類似度計算プログラム Download PDF

Info

Publication number
JP7484054B2
JP7484054B2 JP2022534494A JP2022534494A JP7484054B2 JP 7484054 B2 JP7484054 B2 JP 7484054B2 JP 2022534494 A JP2022534494 A JP 2022534494A JP 2022534494 A JP2022534494 A JP 2022534494A JP 7484054 B2 JP7484054 B2 JP 7484054B2
Authority
JP
Japan
Prior art keywords
feature
similarity
data
vectors
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022534494A
Other languages
English (en)
Other versions
JPWO2022009258A1 (ja
JPWO2022009258A5 (ja
Inventor
拓磨 天田
和也 柿崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022009258A1 publication Critical patent/JPWO2022009258A1/ja
Publication of JPWO2022009258A5 publication Critical patent/JPWO2022009258A5/ja
Application granted granted Critical
Publication of JP7484054B2 publication Critical patent/JP7484054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム及び類似度計算プログラム関する。
機械学習において、入力データに所定のノイズを加えることで誤判定を誘発させる敵対的サンプル(Adversarial Examples)という攻撃手法が知られている。非特許文献1には、複数のモデルの出力から最終的な出力を決定することで、敵対的サンプルの影響を抑える技術が開示されている。
非特許文献2には、入力データに対して抽出された特徴量と各クラスを代表する代表ベクトル群とのコサイン類似度を求め、入力データに対応するクラスの代表ベクトルとの類似度が、他クラスの代表ベクトルとの類似度よりも大きくなるようにモデルを学習する技術が開示されている。
Tianyu Pang、Kun Xu、Chao Du、Ning Chen、Jun Zhu: "Improving Adversarial Robustness via Promoting Ensemble Diversity"in arXiv:1901.08846 Jiankang Deng、Jia Guo、Niannan Xue、Stefanos Zafeiriou:" ArcFace: Additive Angular Margin Loss for Deep Face Recognition"in arXiv: 1801.07698
非特許文献1に記載の手法は、計算結果である特徴量ベクトルがモデル間で多様的になるように正則化することで、敵対的サンプルに対するロバスト性を高めるものである。ところで、非特許文献1に記載の手法のように、複数のモデルを用いて1つの特徴量ベクトルを求める場合、複数のモデルによって計算された複数の特徴量計算モデルの平均値を算出する。しかしながら非特許文献1に記載の手法では、特徴量ベクトルの平均値が近い値になり、計算精度が低下しうる。つまり、非特許文献1に記載の手法では、入力されるデータの特徴である特徴量がデータの種別ごとに近い値となることを妨げない。
本開示の目的は、上述した課題を解決するため、敵対的サンプルに対するロバスト性を高めつつ、特徴量ベクトルがデータの特徴を適切に表すような学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム及び類似度計算プログラムすることにある。
本発明の第1の態様によれば、学習装置は、複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出する演算手段と、複数のクラスに対応し、前記特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、少なくとも前記入力サンプルが属するクラスに対応する代表ベクトルと、前記複数の特徴量ベクトルの平均値との類似度を算出する類似度算出手段と、前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、前記複数の特徴量計算モデルのパラメータを学習する学習手段と、を備える。
本発明の第2の態様によれば、特徴量計算プログラム生成方法は、複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出し、複数のクラスに対応し、前記特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、前記入力サンプルが属するクラスに対応する代表ベクトルと、前記複数の特徴量ベクトルの平均値との類似度を算出し、前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、前記複数の特徴量計算モデルのパラメータを学習し、学習済みの前記複数の特徴量計算モデルと、前記複数の特徴量計算モデルが出力する複数の特徴量ベクトルの平均値を算出するための出力関数とを組み合わせることで、特徴量計算プログラムを生成するを出力する。
本発明の第3の態様によれば、類似度計算機は、上記態様に係る特徴量計算プログラム生成方法によって生成された特徴量計算プログラムを用いて、第1データに係る複数の特徴量と第2データに係る複数の特徴量とを算出する特徴量算出手段と、前記第1データに係る複数の特徴量の平均値と前記第2データに係る複数の特徴量の平均値とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段とを備える。
本発明の第4の態様によれば、類似度計算方法は、上記態様に係る特徴量計算プログラム生成方法によって生成された特徴量計算プログラムを用いて、第1データに係る複数の特徴量と第2データに係る複数の特徴量とを算出し、前記第1データに係る複数の特徴量の平均値と前記第2データに係る複数の特徴量の平均値とに基づいて、前記第1データと前記第2データの類似度を算出する。
本発明の第5の態様によれば、記録媒体に格納された学習プログラムは、コンピュータを、複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出する演算手段、複数のクラスに対応し、前記特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、前記入力サンプルが属するクラスに対応する代表ベクトルと、前記複数の特徴量ベクトルの平均値との類似度を算出する類似度算出手段、前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、前記複数の特徴量計算モデルのパラメータを学習する学習手段、として機能させる。
本発明の第6の態様によれば、記録媒体に格納された類似度計算プログラムは、コンピュータを、上記態様に係る特徴量計算プログラム生成方法によって生成された特徴量計算プログラムを用いて、第1データに係る複数の特徴量と第2データに係る複数の特徴量とを算出する特徴量算出手段、前記第1データに係る複数の特徴量の平均値と前記第2データに係る複数の特徴量の平均値とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段として機能させる。
上記態様のうち少なくとも1つの態様によれば、敵対的サンプルに対するロバスト性を高めつつ、特徴量ベクトルがデータの特徴を適切に表すことができる。
第1の実施形態に係る認証システム1の構成を示す概略ブロック図である。 第1の実施形態に係る学習方法を示すフローチャートである。 第1の実施形態に係る認証装置30による認証方法を示すフローチャートである。 学習装置の基本構成を示す概略ブロック図である。 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
〈第1の実施形態〉
《認証システムの構成》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、第1の実施形態に係る認証システム1の構成を示す概略ブロック図である。
認証システム1は、学習装置10と認証装置30とを備える。
学習装置10は、生体データが入力されると当該生体データの特徴量を出力するように、特徴量抽出モデルのパラメータを学習させる。生体データの例としては、顔画像、静脈画像、指紋データ、音声データなどが挙げられる。特徴量抽出モデルは、ニューラルネットワークなどの機械学習モデルによって表される。
認証装置30は、学習装置10によって学習されたパラメータを有する特徴量抽出モデル(学習済みモデル)を用いて、生体データに基づくユーザの認証を行う。
なお、第1の実施形態に係る認証システム1は、学習装置10と認証装置30とを別個の装置として備えるが、これに限られない。例えば、他の実施形態に係る認証システム1は、認証装置30が学習装置10の機能を有していてもよい。
《学習装置10の構成》
学習装置10は、特徴量抽出モデル記憶部11、データセット取得部12、代表ベクトル記憶部13、演算部14、類似度算出部15、予測損失算出部16、多様性評価部17、評価関数算出部18、学習部19、出力部20を備える。
特徴量抽出モデル記憶部11は、ニューラルネットワークによって構成されたN個の特徴量抽出モデルを記憶する。各特徴量抽出モデルは、生体データを入力し、当該生体データの特徴量を示すQ次元の特徴量ベクトルを出力する。生体データは多次元データの一例である。特徴量抽出モデルは、2層以上のニューラルネットワークによって構成される。特徴量抽出モデルは、入力されたベクトルを、低次元の特徴量ベクトルに変換する。
データセット取得部12は、入力サンプルである生体データと、出力サンプルである人物ラベルとを関連付けた学習用データセットを取得する。人物ラベルは、データセットにおける人物の数をPとした場合に、P次元のワンホットベクトルによって表される。
代表ベクトル記憶部13は、学習用データセットに含まれる人物ごとに、当該人物の特徴量を代表するベクトルであるQ次元の代表ベクトルを記憶する。つまり、代表ベクトルの次元数は、特徴量ベクトルの次元数と同じである。代表ベクトルは、認証装置30の設計者が任意に設定してよい。ただし、異なる人物に係る代表ベクトル同士の距離は、十分に遠いことが好ましい。また、設計者は代表ベクトルの初期値のみを設定し、特徴量抽出モデルの学習に伴って学習部19によって代表ベクトルが更新されるものであってもよい。
演算部14は、特徴量抽出モデル記憶部11が記憶するN個の特徴量計算モデルを用いて、データセット取得部12が取得した入力サンプルから、N個の特徴量ベクトルを算出する。また、演算部は、N個の特徴量ベクトルの平均である平均特徴量ベクトルを算出する。
類似度算出部15は、代表ベクトル記憶部13が記憶する各代表ベクトルについて、演算部14が算出した平均特徴量ベクトルとの類似度を算出する。類似度の例としては、コサイン類似度が挙げられる。類似度算出部15は、各代表ベクトルと平均特徴量ベクトルとの類似度を要素とするP次元の類似度ベクトルを生成する。すなわち、類似度算出部15は、以下の式(1)により類似度cosi,jを算出する。
Figure 0007484054000001
式(1)において、f()は、i番目の特徴量計算モデルを示し、Xは、入力サンプルを示し、θは、i番目の特徴量計算モデルのパラメータを示し、Wは、j番目の代表ベクトルを示す。
予測損失算出部16は、類似度算出部15が算出した類似度ベクトルと出力サンプルとの交差エントロピーの平均値を得る損失関数を計算することで、スカラーである予測損失を得る。なお、予測損失算出部16は、類似度ベクトルのうち出力サンプルに係る要素に特徴ベクトルと代表ベクトルのなす角度にマージンmを取り、類似度ベクトル全体に係数sを乗算して交差エントロピーを算出してもよい。マージンmおよび係数sはハイパーパラメータである。
多様性評価部17は、演算部14が算出したN個の特徴量ベクトルv-vに基づいて、複数の特徴量計算モデル間の多様性を示す多様性評価値EDを算出する。多様性評価値EDは、例えば式(2)によって表される。
Figure 0007484054000002
つまり、第1の実施形態に係る多様性評価値は、N個の特徴量ベクトルv-vを並べたN×Qの特徴量行列を生成し、当該特徴量行列とその転置行列の積の行列式を計算することで、スカラーである多様性評価値EDを得る。
評価関数算出部18は、予測損失算出部16が算出した予測損失ECEと、多様性評価部17が算出した多様性評価値EDとに基づく評価関数を算出する。評価関数Lossは、例えば、式(3)によって表される。式(3)におけるαはハイパーパラメータである。
Figure 0007484054000003
学習部19は、評価関数算出部18が算出した評価関数が小さくなるように特徴量抽出モデル記憶部11が記憶する複数の特徴量計算モデルのパラメータを学習する。
出力部20は、特徴量抽出モデル記憶部11が記憶する学習済みの複数の特徴量計算モデルを認証装置30に出力する。
《学習方法》
図2は、第1の実施形態に係る学習方法を示すフローチャートである。
学習処理を開始すると、学習装置10のデータセット取得部12は、図示しないデータベースから予め用意されたデータセットを取得する(ステップS1)。学習装置10は、取得したデータセットに含まれる入力サンプルと出力サンプルのペアを1つずつ選択し(ステップS2)、すべてのペアについて以下のステップS3からステップS10の処理を実行する。
演算部14は、ステップS2で選択したペアに係る入力サンプルを、特徴量抽出モデル記憶部11が記憶するN個の特徴量抽出モデルに入力することで、N個の特徴量ベクトルを算出する(ステップS3)。演算部14は、N個の特徴量ベクトルの各要素の平均値からなる平均ベクトルを算出する(ステップS4)。
類似度算出部15は、ステップS4で算出した平均ベクトルと、代表ベクトル記憶部13が記憶するP人の人物それぞれに対応するP個の代表ベクトルとの類似度を算出する(ステップS5)。類似度算出部15は、算出した類似度を要素に持つP次元の類似度ベクトルを生成する(ステップS6)。当該類似度ベクトルは、理想的には入力サンプルが示す人物に対応する要素が1に近い値を取り、他の要素が0に近い値を取る。
予測損失算出部16は、ステップS6で算出した類似度ベクトルと、ステップS2で選択したペアに係る出力サンプルのワンホットベクトルとの誤差とに基づいて、予測損失を算出する(ステップS7)。
多様性評価部17は、ステップS3で算出したN個の特徴量ベクトルに基づいて、複数の特徴量計算モデル間の多様性を示す多様性評価値を算出する(ステップS8)。
評価関数算出部18は、ステップS7で算出した予測損失とステップS8で算出した多様性評価値とに基づいて評価関数を計算する(ステップS9)。学習部19は、ステップS9で計算した評価関数に基づいて、特徴量抽出モデル記憶部11が記憶するN個の特徴量抽出モデルのパラメータを更新する(ステップS10)。学習部19は、例えば勾配降下法により各パラメータを更新する。
学習装置10がデータセットに含まれる入力サンプルと出力サンプルのすべてのペアについて、上記のステップS3からステップS10の処理を実行すると、学習部19は、学習の終了条件が満たされたか否かを判定する(ステップS11)。終了条件は、例えば繰り返し回数が設定されたエポック数を超えることや、評価関数の変化量が閾値未満になることなどが挙げられる。
終了条件が満たされていない場合(ステップS11:NO)、学習装置10はステップS2に処理を戻し、学習処理を繰り返す。他方、終了条件が満たされた場合(ステップS11:YES)、出力部20は、特徴量抽出モデル記憶部11が記憶するN個の特徴量抽出モデルを認証装置30に出力する(ステップS12)。出力部20は、例えば通信によって特徴量抽出モデルを出力してもよいし、リムーバブルメディアを介して特徴量抽出モデルを出力してもよい。
《認証装置30の構成》
認証装置30は、ユーザデータ記憶部31、モデル取得部32、抽出モデル記憶部33、生体データ取得部34、特徴量抽出部35、平均化部36、類似度算出部37、認証部38、及び検知部39を備える。
ユーザデータ記憶部31は、ユーザのアカウントデータと、当該ユーザの生体データとを関連付けて記憶する。
モデル取得部32は、学習装置10からN個の学習済みの特徴量抽出モデルを取得する。
抽出モデル記憶部33は、モデル取得部32が取得したN個の学習済みの特徴量抽出モデルを記憶する。
生体データ取得部34は、認証装置30に設けられたセンサ等から認証対象となる生体データを取得する。
特徴量抽出部35は、抽出モデル記憶部33が記憶するN個の特徴量抽出モデルを用いてユーザデータ記憶部31が記憶する生体データ及び生体データ取得部34が取得した生体データからN個の特徴量ベクトルを抽出する。
平均化部36は、特徴量抽出部35が抽出したN個の特徴量ベクトルの平均である平均特徴量ベクトルを算出する。平均化部36は、N個の特徴量ベクトルの平均値を算出するための出力関数の一例である。
類似度算出部37は、2つの平均特徴ベクトルどうしの類似度を算出する。類似度の尺度の例としては、L2距離、コサイン類似度、PLDA(Probabilistic Linear Discriminant Analysis)などが挙げられる。
認証部38は、類似度算出部37が算出した類似度に基づいて、ユーザデータ記憶部31に記憶されたユーザであるか否かの認証を行う。認証部38は、ユーザデータ記憶部31に記憶されたユーザであると判定した場合、当該ユーザのアカウントデータを返す。
検知部39は、類似度算出部37が算出した類似度に基づいて、生体データ取得部34が取得した生体データ又はユーザデータ記憶部31に記憶された生体データが敵対的サンプルであるか否かの判定を行う。
なお、認証装置30を実現するためのプログラムにおいて抽出モデル記憶部33、特徴量抽出部35及び平均化部36を構成する部分は、特徴量計算プログラムであるといえる。
《認証方法》
図3は、第1の実施形態に係る認証装置30による認証方法を示すフローチャートである。なお、認証方法の実行に先立ってモデル取得部32は、学習装置10から学習済みの特徴量抽出モデルを取得し、抽出モデル記憶部33に記録しているものとする。つまり、モデル取得部32は、学習済みのN個の特徴量計算モデルとN個の特徴量計算モデルが出力するN個の特徴量ベクトルの平均値を算出するための出力関数とを組み合わせることで特徴量計算プログラムを生成する。
認証装置30の生体データ取得部34は、認証装置30に接続されたセンサ等から生体データを取得する(ステップS21)。特徴量抽出部35は、ステップS21で取得した生体データを、抽出モデル記憶部33が記憶する特徴量抽出モデルに入力することで、N個の特徴量ベクトルを算出する(ステップS22)。平均化部36は、N個の特徴量ベクトルから1つの平均特徴量ベクトルを生成する(ステップS23)。次に、認証装置30は、ユーザデータ記憶部31が記憶するユーザを1つずつ選択し(ステップS24)、以下に示すステップS25からステップS27を実行する。
まず、特徴量抽出部35は、ステップS24で選択されたユーザに関連付けられた生体データを、抽出モデル記憶部33が記憶するN個の特徴量抽出モデルに入力することで、N個の特徴量ベクトルを算出する(ステップS25)。平均化部36は、N個の特徴量ベクトルから1つの平均特徴量ベクトルを生成する(ステップS26)。次に、類似度算出部37は、ステップS23で算出した平均特徴量ベクトルと、ステップS26で算出した平均特徴量ベクトルとの類似度を算出する(ステップS27)。
認証部38は、ユーザデータ記憶部31が記憶する各ユーザについて、取得された生体データとの類似度を算出すると、算出された類似度のうち、所定の認証閾値を超えるものがあるか否かを判定する(ステップS28)。すべての類似度が認証閾値以下である場合(ステップS28:NO)、認証部38は、ステップS21で取得した生体データによる認証に失敗したと判定し(ステップS29)、処理を終了する。
他方、少なくとも1つの類似度が認証閾値を超える場合(ステップS28:YES)、検知部39は、ステップS22で算出したN個の特徴量ベクトルと、ステップS25で算出したN個の特徴量ベクトルとに基づいて、N個の特徴量抽出モデルに対応するL2ノルム距離である個別距離を算出する(ステップS30)。また、検知部39は、ステップS23で算出した平均特徴量ベクトルと、ステップS26で算出した平均特徴量ベクトルとのL2ノルム距離である平均距離を算出する(ステップS31)。検知部39は、N個の個別距離それぞれと平均距離の差の総和を算出する(ステップS32)。検知部39は、ステップS32で算出した距離の差の総和が所定の閾値未満であるか否かを判定する(ステップS33)。
距離の差の総和が所定の閾値未満である場合(ステップS33:YES)、認証部38は、ステップS28における最も高い類似度に係るユーザを特定し(ステップS34)、当該ユーザのアカウントデータを出力する(ステップS35)。
他方、距離の差の総和が所定の閾値以上である場合(ステップS33:NO)、検知部39は、ステップS21で取得した生体データ又はステップS28における最も高い類似度に係る生体データが敵対的サンプルであると判定する(ステップS36)。
《作用・効果》
このように、第1の実施形態によれば、学習装置10は、特徴量ベクトルと次元数を等しくする複数の代表ベクトルと複数の特徴量ベクトルの平均値との類似度を算出し、当該類似度を用いた評価関数に基づいて、複数の特徴量計算モデルのパラメータを学習する。代表ベクトルと平均特徴量ベクトルの類似度が高くなるように複数の特徴量計算モデルのパラメータを学習することで、異なるクラスに属する平均特徴量ベクトルが一定の距離を持つようになり、計算精度を向上させることができる。
なお、第1の実施形態に係る学習装置10は、複数の代表ベクトルそれぞれと複数の特徴量ベクトルの平均値との類似度を算出し、当該類似度を要素に持つ類似度ベクトルと、入力サンプルが属するクラスを示すワンホットベクトルとの誤差が大きいほど値が大きくなる評価関数に基づいて複数の特徴量計算モデルのパラメータを学習するが、これに限られない。例えば、他の実施形態に係る学習装置10は、入力サンプルが属するクラスに対応する代表ベクトルと平均特徴量ベクトルとの類似度を、評価関数の項に含んでもよい。
また、第1の実施形態に係る学習装置10は、複数の特徴量ベクトルの多様性の高さに係る多様性指標値が小さいほど値が大きくなる評価関数を用いて複数の特徴量計算モデルのパラメータを学習する。これにより、複数の特徴量計算モデルが算出する特徴量ベクトルどうしの距離が遠くなり、敵対的サンプルに対するロバスト性を向上させることができる。
なお、他の実施形態に係る学習装置10は、多様性指標値に代えて、各特徴量計算モデルの特徴量ベクトルの距離の総和に基づく評価関数を用いて複数の特徴量計算モデルのパラメータを学習してもよい。
〈その他の実施形態〉
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。すなわち、他の実施形態においては、上述の処理の順序が適宜変更されてもよい。また、一部の処理が並列に実行されてもよい。
上述した実施形態に係る学習装置10は、単独のコンピュータによって構成されるものであってもよいし、学習装置10の構成を複数のコンピュータに分けて配置し、複数のコンピュータが互いに協働することで学習装置10として機能するものであってもよい。また、学習装置10と認証装置30とが同一のコンピュータによって実現されるものであってもよい。
また、上述した実施形態に係る学習装置10は、平均特徴量ベクトルを求めた後、当該平均特徴量ベクトルと代表ベクトルとの類似度を算出することで、平均類似度を求めるが、他の実施形態においては、これに限られない。例えば、他の実施形態においては、学習装置10は、個々の特徴量ベクトルと代表ベクトルとの類似度を求め、その平均を算出することで、平均類似度を求めてもよい。
〈基本構成〉
図4は、学習装置の基本構成を示す概略ブロック図である。
上述した実施形態では、学習装置の一実施形態として図1に示す構成について説明したが、学習装置の基本構成は、図4に示すとおりである。
すなわち、学習装置50は、演算手段51、類似度算出手段52、及び学習手段53を基本構成とする。
演算手段51は、複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出する。
類似度算出手段52は、複数のクラスに対応し、特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、入力サンプルが属するクラスに対応する代表ベクトルと、複数の特徴量ベクトルの平均値との類似度を算出する。
学習手段は、入力サンプルが属するクラスに対応する代表ベクトルと複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、複数の特徴量計算モデルのパラメータを学習する。
これにより、学習装置50は、複数の特徴量ベクトルにより、敵対的サンプルに対するロバスト性を高めつつ、特徴量ベクトルがデータの特徴を適切に表すことができる。
〈コンピュータ構成〉
図5は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ90は、プロセッサ91、メインメモリ92、ストレージ93、インタフェース94を備える。
上述の学習装置10及び認証装置30は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ93に記憶されている。プロセッサ91は、プログラム(学習プログラムまたは類似度計算プログラム)をストレージ93から読み出してメインメモリ92に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ91は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ92に確保する。プロセッサ91の例としては、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、マイクロプロセッサなどが挙げられる。
プログラムは、コンピュータ90に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージに既に記憶されている他のプログラムとの組み合わせ、又は他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータ90は、上記構成に加えて、又は上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサ91によって実現される機能の一部又は全部が当該集積回路によって実現されてよい。このような集積回路も、プロセッサの一例に含まれる。
ストレージ93の例としては、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリ等が挙げられる。ストレージ93は、コンピュータ90のバスに直接接続された内部メディアであってもよいし、インタフェース94又は通信回線を介してコンピュータ90に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムをメインメモリ92に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ93は、一時的でない有形の記憶媒体である。
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能をストレージ93に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1 認証システム
10 学習装置
11 特徴量抽出モデル記憶部
12 データセット取得部
13 代表ベクトル記憶部
14 演算部
15 類似度算出部
16 予測損失算出部
17 多様性評価部
18 評価関数算出部
19 学習部
20 出力部
30 認証装置
31 ユーザデータ記憶部
32 モデル取得部
33 抽出モデル記憶部
34 生体データ取得部
35 特徴量抽出部
36 平均化部
37 類似度算出部
38 認証部
39 検知部

Claims (10)

  1. 複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出する演算手段と、
    複数のクラスに対応し、前記特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、前記入力サンプルが属するクラスに対応する代表ベクトルと、前記複数の特徴量ベクトルの平均値との類似度を算出する類似度算出手段と、
    前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、前記複数の特徴量計算モデルのパラメータを学習する学習手段と、
    を備える学習装置。
  2. 前記類似度算出手段は、前記複数の代表ベクトルそれぞれと前記複数の特徴量ベクトルとの平均類似度を算出し、
    前記評価関数は、クラスごとの前記平均類似度を要素に持つ類似度ベクトルと、前記入力サンプルが属するクラスを示すワンホットベクトルとの誤差が大きいほど値が大きくなる
    請求項1に記載の学習装置。
  3. 前記複数の特徴量ベクトルの多様性の高さに係る多様性指標値を算出する多様性評価手段を備え、
    前記評価関数は、前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなり、かつ前記多様性指標値が小さいほど値が大きくなる
    請求項1又は請求項2に記載の学習装置。
  4. 前記多様性指標値は、複数の特徴量ベクトルを並べた行列と、当該行列の転置行列の積の行列式を、前記多様性指標値を算出する
    請求項3に記載の学習装置。
  5. 複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出し、
    複数のクラスに対応し、前記特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、前記入力サンプルが属するクラスに対応する代表ベクトルと、前記複数の特徴量ベクトルの平均値との類似度を算出し、
    前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、前記複数の特徴量計算モデルのパラメータを学習し、
    学習済みの前記複数の特徴量計算モデルと、前記複数の特徴量計算モデルが出力する複数の特徴量ベクトルの平均値を算出するための出力関数とを組み合わせることで、特徴量計算プログラムを生成する
    を出力する
    特徴量計算プログラム生成方法。
  6. 前記複数の特徴量ベクトルの多様性の高さに係る多様性指標値を算出し、
    前記評価関数は、前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなり、かつ前記多様性指標値が小さいほど値が大きくなる
    請求項5に記載の特徴量計算プログラム生成方法。
  7. 請求項5又は請求項6に記載の特徴量計算プログラム生成方法によって生成された特徴量計算プログラムを用いて、第1データに係る複数の特徴量と第2データに係る複数の特徴量とを算出する特徴量算出手段と、
    前記第1データに係る複数の特徴量の平均値と前記第2データに係る複数の特徴量の平均値とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段と
    を備える類似度計算機。
  8. 請求項5又は請求項6に記載の特徴量計算プログラム生成方法によって生成された特徴量計算プログラムを用いて、第1データに係る複数の特徴量と第2データに係る複数の特徴量とを算出し、
    前記第1データに係る複数の特徴量の平均値と前記第2データに係る複数の特徴量の平均値とに基づいて、前記第1データと前記第2データの類似度を算出する
    類似度計算方法。
  9. コンピュータを、
    複数の特徴量計算モデルを用いて、多次元データである入力サンプルから、入力サンプルの特徴量を示す複数の特徴量ベクトルを算出する演算手段、
    複数のクラスに対応し、前記特徴量ベクトルと次元数を等しくする複数の代表ベクトルのうち、前記入力サンプルが属するクラスに対応する代表ベクトルと、前記複数の特徴量ベクトルの平均値との類似度を算出する類似度算出手段、
    前記入力サンプルが属するクラスに対応する代表ベクトルと前記複数の特徴量ベクトルの平均値との類似度が小さいほど値が大きくなる評価関数に基づいて、前記複数の特徴量計算モデルのパラメータを学習する学習手段、
    として機能させるための学習プログラム
  10. コンピュータを、
    請求項5又は請求項6に記載の特徴量計算プログラム生成方法によって生成された特徴量計算プログラムを用いて、第1データに係る複数の特徴量と第2データに係る複数の特徴量とを算出する特徴量算出手段、
    前記第1データに係る複数の特徴量の平均値と前記第2データに係る複数の特徴量の平均値とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段
    として機能させるための類似度計算プログラム
JP2022534494A 2020-07-06 2020-07-06 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム、及び類似度計算プログラム Active JP7484054B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/026359 WO2022009258A1 (ja) 2020-07-06 2020-07-06 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム記録媒体、及び類似度計算プログラム記録媒体

Publications (3)

Publication Number Publication Date
JPWO2022009258A1 JPWO2022009258A1 (ja) 2022-01-13
JPWO2022009258A5 JPWO2022009258A5 (ja) 2023-03-17
JP7484054B2 true JP7484054B2 (ja) 2024-05-16

Family

ID=79553025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022534494A Active JP7484054B2 (ja) 2020-07-06 2020-07-06 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム、及び類似度計算プログラム

Country Status (3)

Country Link
US (1) US20230259818A1 (ja)
JP (1) JP7484054B2 (ja)
WO (1) WO2022009258A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192249A1 (ja) * 2020-03-27 2021-09-30 日本電気株式会社 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Deng, Jiankang, andStefanos Zafeririou.,Arcface for disguised face recognition,Proceedings of the IEEE International Conference on Computer Vision Workshops 2019,米国,IEEE,2019年,p.485-p.493,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9022036
Hsin-Kai Huang et al.,Mixture of deep CNN-based ensemble model for image retrieval,2016 IEEE 5thGlobal Conference on Consumer Electronics.,米国,IEEE,2016年,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7800375
Pang, Tianyu, et al.,Improving adversarial robustness via promoting ensemble diversity,arXiv,米国,Cornell University,2019年05月29日,https://arxiv.org/pdf/1901.08846.pdf

Also Published As

Publication number Publication date
JPWO2022009258A1 (ja) 2022-01-13
US20230259818A1 (en) 2023-08-17
WO2022009258A1 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
Yang et al. A review of fast l1-minimization algorithms for robust face recognition
Jia et al. Label distribution learning with label correlations on local samples
CN107545276B (zh) 联合低秩表示和稀疏回归的多视角学习方法
CN107590505B (zh) 联合低秩表示和稀疏回归的学习方法
WO2015008567A1 (ja) 顔印象度推定方法、装置、及びプログラム
Ahuja et al. Deterministic Multi-kernel based extreme learning machine for pattern classification
CN110321805A (zh) 一种基于时序关系推理的动态表情识别方法
Niu et al. Region-aware image denoising by exploring parameter preference
JP7484054B2 (ja) 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム、及び類似度計算プログラム
Zhou et al. Personalized and occupational-aware age progression by generative adversarial networks
Wu et al. Semisupervised feature learning by deep entropy-sparsity subspace clustering
Zhang et al. Unified Framework for Faster Clustering via Joint Schatten $ p $-Norm Factorization With Optimal Mean
CN112650869B (zh) 图像检索重排序方法、装置、电子设备及存储介质
CN115033700A (zh) 基于相互学习网络的跨领域情感分析方法、装置以及设备
Woerl et al. Initialization noise in image gradients and saliency maps
Gang et al. Skeleton-based action recognition with low-level features of adaptive graph convolutional networks
Dong et al. Sparse gradient pursuit for robust visual analysis
Zhang et al. Age group classification in the wild with deep RoR architecture
Li et al. Eyebrow semantic description via clustering based on Axiomatic Fuzzy Set
Chen et al. A unified framework for generative data augmentation: A comprehensive survey
JP7318804B2 (ja) 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法
CN112488355A (zh) 基于图神经网络预测用户评级的方法和装置
WO2022249246A1 (ja) 学習装置、学習済みモデルの生成方法、演算装置、演算方法およびプログラム
Zhang et al. Quintic spline smooth semi-supervised support vector classification machine
Huang et al. Leveraged Matrix Completion With Noise

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20240408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240408

R150 Certificate of patent or registration of utility model

Ref document number: 7484054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150