JP2021039598A - 学習装置、照合装置、学習方法、照合方法及びプログラム - Google Patents

学習装置、照合装置、学習方法、照合方法及びプログラム Download PDF

Info

Publication number
JP2021039598A
JP2021039598A JP2019161335A JP2019161335A JP2021039598A JP 2021039598 A JP2021039598 A JP 2021039598A JP 2019161335 A JP2019161335 A JP 2019161335A JP 2019161335 A JP2019161335 A JP 2019161335A JP 2021039598 A JP2021039598 A JP 2021039598A
Authority
JP
Japan
Prior art keywords
feature vector
constraint
time series
time
local feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019161335A
Other languages
English (en)
Other versions
JP7174382B2 (ja
Inventor
小萌 武
Xiaomeng Wu
小萌 武
昭悟 木村
Shogo Kimura
昭悟 木村
柏野 邦夫
Kunio Kashino
邦夫 柏野
ブライアンケンジ イワナ
Kenji Iwana Brian
ブライアンケンジ イワナ
誠一 内田
Seiichi Uchida
誠一 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2019161335A priority Critical patent/JP7174382B2/ja
Publication of JP2021039598A publication Critical patent/JP2021039598A/ja
Application granted granted Critical
Publication of JP7174382B2 publication Critical patent/JP7174382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

【課題】時系列データ同士の照合の精度を向上させることが可能である学習装置、照合装置、学習方法、照合方法及びプログラムを提供する。【解決手段】学習装置は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列をパラメータに応じて第2の時系列データから抽出する抽出部と、第1の特徴ベクトルと第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、第1の特徴ベクトルと第2の特徴ベクトルとの距離の統合値が所定条件を満たす組み合わせの順序を選択する選択部と、選択された順序の組み合わせごとの距離に応じた損失関数値に基づいてパラメータを更新する更新部とを備える。【選択図】図6

Description

本発明は、学習装置、照合装置、学習方法、照合方法及びプログラムに関する。
セキュリティ、電子政府、医療、教育、銀行及び保険等の分野において、生体認証技術の需要が高まっている。手書きの署名を用いる個人認証は、声紋若しくは指紋に依存する生体認証方法を補完又は代用するものとして期待されている。手書きの署名を用いる個人認証は、認証対象者の体調等の不確定要因に影響されにくく、認証対象者に大きな心理的負担を与えない認証方法である。また、手書きの署名を用いる個人認証は、安価で行うことができる。
広く使われている署名認証では、署名収集装置が用いられる。署名収集装置は、例えば、タブレット端末である。認証対象の人物は、署名収集装置のディスプレイに、電子ペンを用いて署名(時系列データ)を入力する。ディスプレイにおける署名の座標及び筆圧等の多変数の時系列データが、署名情報として扱われる。認証の際、照合装置は、入力された署名情報(以下「認証対象署名」という。)と、データベースに予め登録された1個以上の署名情報(以下「テンプレート署名」という。)とを照合する。照合装置は、認証対象署名とテンプレート署名とが同一クラスの署名(例えば、同一人物によって入力された署名)であるか否かを、認証結果として出力する。認証技術として、認証対象署名とテンプレート署名との距離を測定する方法(時系列データ照合のための距離測定方法)がある。
認証対象署名における大域的な特徴に基づく署名情報の照合方法が、非特許文献1に開示されている(非特許文献1参照)。非特許文献1では、署名情報は、1個の多次元の特徴ベクトルを用いて記述される。多次元の特徴ベクトルは、筆跡の継続時間とペンアップ及びペンダウンの時刻等との時間的特徴と、筆跡の座標の一次及び二次時間導関数から導出される速度及び加速度特徴と、筆跡の方向ヒストグラム等の方向特徴と、筆跡全体又は各ストロークから抽出される幾何学的特徴とを含む。認証対象署名とテンプレート署名との距離は、それぞれの特徴ベクトル間のマハラノビス距離によって定義される。
非特許文献1には、認証対象署名における局所的な特徴に基づく署名情報の照合方法も記述されている。署名情報(多変数の時系列データ)は、多次元の特徴ベクトルの系列(以下「局所的特徴ベクトルシーケンス」という。)によって記述される。すなわち、署名情報の全体は、時間ごとの局所的断片から構成されている。したがって、署名情報の部分(時間ごとの局所的断片)は、1個の多次元の特徴ベクトルによって記述される。この1個の多次元の特徴ベクトルは、筆跡及び筆圧等から導出される複数の離散時間関数の値と、離散時間関数の値の一次及び二次時間導関数の値等とを、多次元の情報として含む。
認証対象署名とテンプレート署名との距離は、局所的特徴ベクトルシーケンスに対して、隠れマルコフモデルを適用することによって測定される。しかし、テンプレート署名の特徴は、人手によって設計された特徴である。手書きの署名を認証する目的には、人手によって設計されたテンプレート署名の特徴が最適であるとは限らない。複雑な特徴表現が必要である場合、人手によって設計されたテンプレート署名の特徴の性能は不十分である。
テンプレート署名の特徴をデータから直接学習する署名認証方法が、非特許文献2に開示されている(非特許文献2参照)。非特許文献2では、署名情報(多変数の時系列データ)は、1個の大域的特徴ベクトルによって記述される。大域的特徴ベクトルは、再帰型ニューラルネットワークによって抽出される。認証対象署名とテンプレート署名との距離は、認証対象署名の大域的特徴ベクトルと、テンプレート署名の大域的特徴ベクトルとの間の内積と定義される。再帰型ニューラルネットワークのパラメータは、多数の訓練データを用いた学習によって決定される。
図14は、時系列データ同士の距離を求める処理の例を示す図である。図において、1個の正方形は、時系列データである認証対象署名(署名情報)から抽出された局所的特徴ベクトルシーケンスにおける、1個の多次元の特徴ベクトルを示す。同じ多次元の特徴ベクトル(例えば、英字)の正方形は、距離が短い特徴ベクトル、すなわち、類似している特徴ベクトルを示す。
図14に示されているように、再帰型ニューラルネットワークに署名情報が入力された場合、再帰型ニューラルネットワークの最後の隠れ層では、1個の局所的特徴ベクトルシーケンスが導出される。1個の局所的特徴ベクトルシーケンスは、複数の多次元の特徴ベクトルを含む。局所的特徴ベクトルシーケンスに含まれている各局所的特徴ベクトルは、時系列データである署名情報の各時刻に対応している。プーリング層又は全結合層は、局所的特徴ベクトルシーケンスの全体における特徴ベクトルの平均を、署名の大域的特徴ベクトルとして導出する。しかし、プーリング層又は全結合層によって、複数の局所的特徴ベクトルが1個の大域的特徴ベクトルに統合されるので、大域的特徴ベクトルでは、時系列データである署名情報の時刻情報が消失してしまう。
図15は、対応関係に時間的一貫性がない局所的特徴ベクトルシーケンス(異なる人物の署名情報からそれぞれ抽出された局所的特徴ベクトルシーケンス)の例を示す図である。図15に示された正方形の間の実線は、類似している局所的特徴ベクトルの対応関係を示している。
図15における正方形同士を結ぶ各実線の向きによって示されているように、類似している局所的特徴ベクトル(例えば、類似している英字)の対応関係には、時刻情報の一貫性(以下「時間的一貫性」という。)がない。時間的一貫性とは、対応関係を有する局所的特徴ベクトルの各時刻が同一でなければならないことを指す。又は、時間的一貫性とは、局所的特徴ベクトルの対応関係(組み合わせ)の系列が所定の制約(単調性制約、連続性制約、境界条件制約)を一定程度以上に満たすことを指してもよい。
図15では、類似している局所的特徴ベクトルの対応関係には、時間的一貫性がないので(実線が交差しているので)、互いに類似する多くの局所的特徴ベクトルを含む署名情報を、異なる人物の署名と判定することは困難である。このため、他人の署名又は真似された署名(クローン署名)が認証対象署名として再帰型ニューラルネットワークに入力された場合、認証対象署名とテンプレート署名(本人署名)とが一致と誤って判定される確率(他人受入率)は高い。
Marcos Martinez-Diaz, Julian Fierrez, Ram P. Krish, and Javier Galbally, " Mobile signature verification: Feature robustness and performance comparison, " IET Biometrics, Vol. 3, No. 4, pp. 267-277, 2014. Wenjie Pei, " Models for supervised learning in sequence data, " Delft University of Technology, Netherlands, 2018.
非特許文献1では、署名情報の特徴は、人手によって設計されたものである。このため、手書きの署名認証の目的に対して、テンプレート署名の特徴が最適であるとは限らない。複雑な特徴表現が必要である場合、人手によって設計されたテンプレート署名の特徴は、性能が十分でない。
非特許文献2では、プーリング層又は全結合層の働きによって、時系列データの時刻情報が消失する。このため、大域的特徴ベクトルの間の距離を測定する際に、時間的一貫性を制約として課すことが困難である。その結果、他人の署名又は真似された署名(クローン署名)が認証対象署名として入力された場合、認証対象署名とテンプレート署名(本人署名)とが一致と誤って判定される確率(他人受入率)は高い。これらのように、時系列データ同士の照合の精度を向上させることができない場合がある。
上記事情に鑑み、本発明は、時系列データ同士の照合の精度を向上させることが可能である学習装置、照合装置、学習方法、照合方法及びプログラムを提供することを目的としている。
本発明の一態様は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択部と、選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値に基づいて前記パラメータを更新する更新部とを備え、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、学習装置である。
本発明の一態様は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択部と、前記第1の時系列データ及び前記第2の時系列データが同一クラスの時系列データであるか否かを前記距離の統合値に基づいて判定する判定部とを備え、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、照合装置である。
本発明により、時系列データ同士の照合の精度を向上させることが可能である。
実施形態における、局所的特徴ベクトルの対応関係の第1例を示す図である。 実施形態における、局所的特徴ベクトルの対応関係の第2例を示す図である。 実施形態における、各制約を満たす局所的特徴ベクトルの対応関係の第1例を示す図である。 実施形態における、各制約を満たす局所的特徴ベクトルの対応関係の第2例を示す図である。 実施形態における、学習装置の構成例の概要を示す図である。 実施形態における、学習装置の構成例を示す図である。 実施形態における、学習装置のハードウェア構成例を示す図である。 実施形態における、学習装置の構成例の詳細を示す図である。 実施形態における、第1アルゴリズムの例を示す図である。 実施形態における、第2アルゴリズムの例を示す図である。 実施形態における、照合装置の構成例を示す図である。 実施形態における、照合装置のハードウェア構成例を示す図である。 実施形態における、第3アルゴリズムの例を示す図である。 時系列データ同士の距離を求める処理の例を示す図である。 対応関係に時間的一貫性がない局所的特徴ベクトルシーケンスの例を示す図である。
本発明の実施形態について、図面を参照して詳細に説明する。
以下、第1の時系列データは「X(斜体文字)」と表記される。第2の時系列データは「Y(斜体文字)」と表記される。数式において、時系列データ同士の間の距離は、斜体文字で「d(X,Y)」と表記される。
以下、「i」は、第1の局所的特徴ベクトルシーケンス「X」のi番目の時刻を示す。「j」は、第2の局所的特徴ベクトルシーケンス「Y」のj番目の時刻を示す。
以下、第1の局所的特徴ベクトルシーケンス「X」の時刻「i」は、「i∈{1,…,W}」を満たす。「W」は、時間長(例えば、256)である。第2の局所的特徴ベクトルシーケンス「Y」の時刻「j」は、「j∈{1,…,W}」を満たす。
以下、第1の局所的特徴ベクトルシーケンス「X」は、「W×K」の実数行列「X∈RW×K」である。「K」は、次元数(例えば、64)である。第2の局所的特徴ベクトルシーケンス「Y」は、「W×K」の実数行列「Y∈RW×K」である。
以下、第1の局所的特徴ベクトルシーケンス「X=[x…x」のi番目の時刻に対応する局所的特徴ベクトルは、「x∈RK×1」と表記される。第2の局所的特徴ベクトルシーケンス「Y=[y…y」のj番目の時刻に対応する局所的特徴ベクトルは、「yj∈RK×1」と表記される。
以下、「x」において、k番目の次元に対応する値は、「xi,k」と表記される。「y」において、k番目の次元にある値は、「yj,k」で表記される。
以下、第1の局所的特徴ベクトルシーケンスにおける各時刻と、第2の局所的特徴ベクトルシーケンスにおける各時刻との対応関係(組み合わせ)の系列は、「Π={(1,1),…,(i,j),…,(W,W)}」と表記される。
(第1実施形態)
第1実施形態では、機械学習を実行する学習装置について説明する。
図1は、局所的特徴ベクトルの対応関係(組み合わせ)の第1例を示す図である。図1では、正方形の間の実線は、第1の局所的特徴ベクトルシーケンス(例えば、署名から抽出された英字の配列)における時系列の所定位置の局所的特徴ベクトル(例えば、署名から抽出された英字)と、第2の局所的特徴ベクトルシーケンスにおける時系列の所定位置の局所的特徴ベクトルとが類似していることを示す。正方形の間の破線は、第1の局所的特徴ベクトルシーケンスにおける時系列の所定位置の局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスにおける時系列の所定位置の局所的特徴ベクトルとが類似していないことを示す。
時間的一貫性(時系列の順序)が制約として課されるようにするため、局所的特徴ベクトルの対応関係は、時刻情報の順番に沿って、図1に示されているように特定される。特定された対応関係に基づいて、互いに同じ時刻の局所的特徴ベクトルの相違が測定される。これによって、異なる人物の署名情報が互いに一致と誤って判定されてしまう確率は低くなる。しかし、同一人物によって作成された複数の署名情報には、非線形の時間的変動(例えば、局所的な位置変化又は速度変化)が生じる場合がある。
図2は、局所的特徴ベクトルの対応関係(組み合わせ)の第2例を示す図である。図2では、非線形の時間的変動「−」の影響によって、局所的特徴ベクトルの対応関係は、誤って特定されている。例えば、「−」と「M」とが組み合わされている。
単調性制約、連続性制約及び境界条件制約について説明する。
(1)単調性制約
単調性制約とは、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの対応関係(組み合わせ)の順序において、対応関係ごとの時刻の値が単調増加しているという制約である。すなわち、単調性制約とは、局所的特徴ベクトルの対応関係の系列において、第2の局所的特徴ベクトルシーケンスの時刻が、第1の局所的特徴ベクトルシーケンスの時刻の関数とみなされた場合、関数は、単調増加する関数でなければならないという制約である。また、局所的特徴ベクトルの対応関係の系列において、第1の局所的特徴ベクトルシーケンスの時刻が、第2の局所的特徴ベクトルシーケンスの時刻の関数とみなされた場合、関数は、単調増加する関数でなければならないという制約である。
換言すれば、第1の局所的特徴ベクトルシーケンスの各時刻で「i<i」が成立し、第2の局所的特徴ベクトルシーケンスの各時刻で「j<j」が成立している場合、時刻「i」が時刻「j」に対応付けられており(組み合わせられており)、かつ、時刻「i」が時刻「j」に対応付けられている(組み合わせられている)という対応関係は、原則として、存在してはいけない。
なお、局所的特徴ベクトルの対応関係の系列において、時刻の値が単調増加していないという例外の対応関係(組み合わせ)の個数が少ない(例えば、全体の2〜3%)場合には、単調性制約が一定程度に満たされているとみなされてもよい。
(2)連続性制約
連続性制約とは、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの対応関係(組み合わせ)の順序において、時系列で連続する対応関係(組み合わせ)の時刻同士の差が所定の正値以下であるという制約である。すなわち、連続性制約とは、任意の対応関係(時刻の組み合わせ)における第1の局所的特徴ベクトルシーケンスの時刻と、その次の対応関係における第1の局所的特徴ベクトルシーケンスの時刻との時刻同士の差が1以下であるという制約である。「時刻同士の差は1以下」の「1」とは、例えば、局所的特徴ベクトルシーケンスにおける互いに隣接する1文字分である。
換言すれば、任意の対応関係(i,j)と、その次の対応関係(i,j)とにおいて、第1の局所的特徴ベクトルシーケンスの各時刻で「i<i」が成立し、第2の局所的特徴ベクトルシーケンスの各時刻で「j<j」が成立している場合、「i−i≦1」かつ「j−j≦1」が、原則として成り立つ。
なお、時刻同士の差は、局所的特徴ベクトルシーケンスにおける比較対象となる局所的特徴ベクトルの時刻を離れすぎないようにする正値であれば、「1」に限られない。第2の局所的特徴ベクトルシーケンスについても同様である。すなわち、局所的特徴ベクトルシーケンスの時間長と比較して、時刻同士の差が小さい所定値(例えば、3)以下である場合、連続性制約が一定程度に満たされているとみなされてもよい。
(3)境界条件制約
境界条件制約とは、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの対応関係(組み合わせ)の順序において、時系列で最初の第1の局所的特徴ベクトルと時系列で最初の第2の局所的特徴ベクトルとが組み合わされており、かつ、時系列で最後の第1の局所的特徴ベクトルと時系列で最後の第2の局所的特徴ベクトルとが組み合わされているという制約である。すなわち、境界条件制約とは、第1の局所的特徴ベクトルシーケンスの最初の時刻と、第2の局所的特徴ベクトルシーケンスの最初の時刻とが対応付けられ、第1の局所的特徴ベクトルシーケンスの最後の時刻と、第2の局所的特徴ベクトルシーケンスの最後の時刻とが対応付けられるという制約である。
換言すれば、境界条件制約とは、第1の局所的特徴ベクトルシーケンスの長さ「I」と、第2の局所的特徴ベクトルシーケンスの長さ「J」とに関して、局所的特徴ベクトルの対応関係の系列が(1,1)から始まり(I,J)で終わるという制約である。
なお、第1の局所的特徴ベクトルシーケンスの最初の時刻(局所的特徴ベクトル)が、第2の局所的特徴ベクトルシーケンスの最初の時刻に対応付けられていないが(組み合わせられていないが)、第2の局所的特徴ベクトルシーケンスの時系列で所定位置(例えば、2番目又は3番目)の時刻に対応付けられている(組み合わせられている)場合、境界条件制約が一定程度に満たされているとみなされてもよい。
図3は、各制約を満たす局所的特徴ベクトルの対応関係(第1の局所的特徴ベクトルと、第2の局所的特徴ベクトルとの組み合わせの順序)の第1例を示す図である。図4は、各制約を満たす局所的特徴ベクトルの対応関係の第2例を示す図である。図3及び図4では、単調性制約、連続性制約、境界条件制約が全て満たされている。これに対して、図15では、単調性制約及び連続性制約が満たされていない。
以下、訓練データのラベルを「訓練ラベル」という。ニューラルネットワークのパラメータが学習によって決定される段階(学習段階)では、時系列データである2個の署名情報と、それらの署名情報が同一クラスの署名情報であるか否かを示す1個の訓練ラベルとの組が、1組の訓練データとして扱われる。学習装置1は、訓練データを用いて損失関数値を導出する。関数値導出部13は、特定された局所的特徴ベクトルの対応関係の系列に基づいて、局所的特徴ベクトルの間の距離と訓練ラベルとを関連付けて、1個の損失関数値を導出する。
学習装置1は、多数の訓練データが用いられた場合に損失関数値が最小になるように、ニューラルネットワークのパラメータを更新する。ニューラルネットワークのパラメータは、特定された局所的特徴ベクトルの全ての対応関係における損失関数値の統合値が所定条件を満たすように更新される。ニューラルネットワークのパラメータは、特定された局所的特徴ベクトルの全ての対応関係における損失関数値の統合値が所定の条件を満たすように更新される。所定の条件を満たすとは、例えば、ニューラルネットワークのパラメータが更新される際に、特定された局所的特徴ベクトルの全ての対応関係における損失関数値の統合値が可能な限り小さくなる(例えば、最小となる)ことである。学習に用いられる訓練データの個数が多いほど、照合の精度は上がる。訓練データの個数は、例えば、2〜3万個程度である。
非特許文献2では、プーリング層又は全結合層の働きによって、時系列データの時刻情報が消失する。このため、学習段階では局所的特徴ベクトルシーケンスの各値は、全ての時刻において均一的に更新される。これに対して、学習装置1は、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」が第2の局所的特徴ベクトルシーケンス「Y」のどの時刻「j」に対応付けられているかに応じて、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」を適応的に更新する。そのため、学習装置1は、より識別力の高い局所的な特徴ベクトルを効果的に学習することが可能である。
同一人物による署名情報が訓練データとして用いられた場合、本来であれば対応付けられない局所的特徴ベクトルの距離と訓練ラベルとが、署名情報における非線形の時間的変動によって関連付けられるように、ニューラルネットワークのパラメータが更新される場合がある。例えば図2において破線によって示されているように、第1の局所的特徴ベクトルシーケンスにおける所定時刻の局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスにおいて所定時刻に対応する時刻の局所的特徴ベクトルとは類似しない。局所的特徴ベクトルの識別力の向上に効果がない等の理由によって、パラメータの更新は誤った方向に導かれてしまう。
これに対して、学習装置1は、非線形の時間的変動を補償する。学習装置1は、より正確な局所的特徴ベクトルの対応関係を用いて、損失関数値を導出及び最小化する。これによって、学習装置1は、時系列データ同士の照合の精度を向上させることが可能である。
図5は、学習装置1の構成例の概要を示す図である。図6は、学習装置1の構成例を示す図である。学習装置1は、入力部10と、抽出部11と、選択部12と、関数値導出部13と、更新部14とを備える。
入力部10は、第1の時系列データと、第2の時系列データとを、抽出部11に入力する。入力部10は、訓練ラベルを関数値導出部13に入力する。
抽出部11は、第1の時系列データ「X(斜体文字)」と、第2の時系列データ「Y(斜体文字)」とを、入力部10から取得する。抽出部11は、第1の局所的特徴ベクトルシーケンスを、第1の時系列データから抽出する。抽出部11は、第2の局所的特徴ベクトルシーケンスを、第2の時系列データから抽出する。抽出部11は、第1の局所的特徴ベクトルシーケンス「X」と、第2の局所的特徴ベクトルシーケンス「Y」とを、選択部12に出力する。
選択部12は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとを、抽出部11から取得する。選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻と、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻とを整合させる。すなわち、選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルとの対応関係の系列を選択する。選択部12は、局所的特徴ベクトルの対応関係の系列を、関数値導出部13に出力する。
関数値導出部13は、局所的特徴ベクトルの対応関係の系列を、選択部12から取得する。関数値導出部13は、訓練ラベルを入力部10から取得する。関数値導出部13は、局所的特徴ベクトルの対応関係の系列と訓練ラベルとに基づいて、局所的特徴ベクトルの組み合わせごとに損失関数値を導出する。関数値導出部13は、局所的特徴ベクトルの組み合わせごとの損失関数値(以下「局所的損失関数値」という。)を、局所的特徴ベクトルの組み合わせごとに更新部14に出力する。関数値導出部13は、例えば局所的損失関数値の平均を、更新部14に出力してもよい。
更新部14は、局所的損失関数値を、局所的特徴ベクトルの組み合わせごとに関数値導出部13から取得する。更新部14は、例えば局所的損失関数値の統合値(例えば、平均)を、関数値導出部13から取得してもよい。更新部14は、局所的損失関数値に基づいて、抽出部11等のニューラルネットワークのパラメータを更新する。更新部14は、ニューラルネットワークのパラメータを、例えば記憶装置に記録する。
図7は、学習装置1のハードウェア構成例を示す図である。学習装置1は、プロセッサ100と、メモリ101と、記憶装置102とを備える。
学習装置1の各機能部のうちの一部又は全部は、CPU(Central Processing Unit)等のプロセッサ100が、不揮発性の記録媒体(非一時的な記録媒体)である記憶装置からメモリ101に展開されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置102などの非一時的な記録媒体である。プログラムは、電気通信回線を経由して送信されてもよい。
学習装置1の各機能部のうちの一部又は全部は、例えば、LSI(Large Scale Integration circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)又はFPGA(Field Programmable Gate Array)等を用いた電子回路(electronic circuit又はcircuitry)を含むハードウェアを用いて実現されてもよい。
図8は、学習装置1の構成例の詳細を示す図である。
[抽出部11]
抽出部11は、第1の時系列データと、第2の時系列データとを、入力部10から取得する。抽出部11は、シャム・ネットワーク(Siamese Networks)を備える。抽出部11は、1個の特徴ベクトルを、畳み込みニューラルネットワークを用いて、時刻ごとに第1の時系列データから抽出する。抽出部11は、1個の特徴ベクトルを、畳み込みニューラルネットワークを用いて、時刻ごとに第2の時系列データから抽出する。
抽出部11は、第1の時系列データ及び第2の時系列データの各サイズを、予め定められた一定の長さ(例えば、1024)にリサイズする。学習装置1において畳み込みニューラルネットワークのパラメータの学習にバッチ学習又はミニバッチ学習等が用いられるので、抽出部11は、時系列データのサイズが予め定められた一定の長さに、第1の時系列データ及び第2の時系列データの各サイズを変更する。
抽出部11は、サイズの変更された時系列データの各次元において、その次元における全ての値の平均が「0」になり、分散が「1」になるよう、全ての値を正規化する。この正規化された時系列データは、「1×1024×5」のテンソルとみなされる。「1024」は、時間長の例である。「5」は、時系列データの次元数の例である。このテンソルを入力とする畳み込みニューラルネットワークは、1層の「1×7」の畳み込み層(conv)と、1層の最大プーリング層と、2層の「1×3」の畳み込み層とを備える。
全ての畳み込み層について、出力の次元数は「64」である。「1×7」の畳み込み層と最大プーリング層とでは、ストライドが「2」に設定される。これによって、各出力の時間長が入力の時間長の半分「/2」になるように、「1×7」の畳み込み層及び最大プーリング層は、ダウンサンプリングを実行する。
バッチ正規化層は、各畳み込み層の出力に対して、バッチ正規化を実行する。バッチ正規化とは、ミニバッチ全体で各入力チャネルを正規化することである(参考文献:「Sergey Ioffe and Christian Szegedy, "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, " International Conference on Machine Learning, pp.448-456, 2015.」)。バッチ正規化の結果に対して、ReLU層が活性化関数として用いられる。
最後のReLU層における出力の各時刻において、各時刻の全ての値の「lノルム」が「1」になるよう、全ての値が正規化される。全ての時刻において正規化が完了した結果は、局所的特徴ベクトルシーケンスとして、動的時間伸縮法を実行する層に出力される。ダウンサンプリングは、合計2回実行される。このため、局所的特徴ベクトルシーケンスの時間長は「256」である。局所的特徴ベクトルシーケンスの次元数は「64」である。抽出部11は、第1の局所的特徴ベクトルシーケンス「X」と、第2の局所的特徴ベクトルシーケンス「Y」とを、正規化が完了した結果として選択部12に出力する。
なお、畳み込みニューラルネットワークは、最後の出力となる隠れユニットの値の系列が局所的特徴ベクトルシーケンスとみなされることが可能な時間長に対応するニューラルネットワークでもよい。例えば、畳み込みニューラルネットワークは、長短期記憶ネットワーク、ゲート付き再帰型ユニットネットワーク等の再帰型ニューラルネットワークでもよい。
[選択部12]
選択部12は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとを、抽出部11から取得する。選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルとの対応関係の系列を選択する。選択された対応関係の系列は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとに対して、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たす。また、選択された対応関係の系列では、系列における全ての対応関係における局所的特徴ベクトルの距離の統合値(総和)は所定の条件を満たす(例えば、最小値をとる等、可能な限り小さくなる)。選択部12は、例えば、動的時間伸縮法、最長共通部分列法又は編集距離法等の動的計画法を用いて、対応関係の系列を選択する。以下では、選択部12は、一例として動的時間伸縮法を用いる。
以下、第1の局所的特徴ベクトル「x」と、第2の局所的特徴ベクトル「y」との距離(ユークリッド距離)は、「||x−yj||」と表記される。特定された対応関係の系列における全ての対応関係における局所的特徴ベクトルの距離の統合値(総和)は、「Σ(i,j)∈Π||x−yj||」と表記される。局所的特徴ベクトルの距離の統合値が小さいほど、第1の局所的特徴ベクトルシーケンス「X」と第2の局所的特徴ベクトルシーケンス「Y」との対応付けが正しいことを表す。
選択部12は、単調性制約と、連続性制約と、境界条件制約とに基づいて、「Π」に関して距離の統合値(総和)を最小化する。単調性制約と、連続性制約と、境界条件制約とを一定程度以上に満たす「Π」は、式(1)のように表される。
Figure 2021039598
距離の統合値が加法性を有しているので、選択部12は、全ての「Π」を調べなくても、「Π」に関して距離の統合値(総和)を最小化することができる。選択部12は、式(2)を用いて、距離の統合値の最小値「ci,j」を再帰的に導出する。
Figure 2021039598
選択部12は、第1の局所的特徴ベクトルシーケンスの部分「[x…x」と、第2の局所的特徴ベクトルシーケンスの部分「[y…yj」とにおける、距離の統合値の最小値を再帰的に導出する。再帰的に導出された最小値は、単調性制約と、連続性制約と、境界条件制約とを一定程度以上に満たす局所的特徴ベクトルの対応関係の系列において、系列における全ての対応関係における局所的特徴ベクトルの距離の統合値の最小値である。
選択部12は、「c1,1」から始まり「cW,W」で終わる「ci,j」を導出する。したがって、「ci,j」の個数は、「W×W」個である。再帰的な処理が完了した場合に導出される「cW,W」は、第1の局所的特徴ベクトルシーケンス「X」と第2の局所的特徴ベクトルシーケンス「Y」とにおける、距離の統合値の最小値となる。
選択部12は、導出された最小値「{ci,j}」に基づいて、最後の時刻の局所的特徴ベクトルの対応関係(W,W)から開始し、「X」の時間軸と「Y」の時間軸とのうちの少なくとも一つに沿って、処理対象の時刻を1時刻ずつ後退させ、たどり着いた時刻の局所的特徴ベクトルの対応関係(i,j)を、1個ずつメモリに記録する。このようにして、選択部12は、対応関係(1,1)を最終的に導出する。
1時刻ずつ後退する際、「X」の時間軸と「Y」の時間軸とのうちの少なくとも一つという三方向の中で、1時刻後退した場合の、局所的特徴ベクトルの対応関係における「ci,j」の値が最も小さい方向に沿って後退する。このようにして、選択部12は、局所的特徴ベクトルの対応関係の系列「Π={(1,1),…,(i,j),…,(W,W)}」を導出する。選択部12は、局所的特徴ベクトルの対応関係の系列を、関数値導出部13に出力する。
[関数値導出部13]
学習段階では、時系列データである2個の署名情報と、それらの署名情報が同一人物による署名情報であるか否かを示す1個の訓練ラベルとの組が、1組の訓練データとして扱われる。
関数値導出部13は、局所的特徴ベクトルの対応関係の系列を、選択部12から取得する。関数値導出部13は、訓練ラベルを入力部10から取得する。関数値導出部13は、局所的特徴ベクトルの対応関係の系列と訓練ラベルとを用いて損失関数値を導出する。関数値導出部13は、選択部12における処理が実行された際に特定された局所的特徴ベクトルの対応関係の系列に基づいて、局所的特徴ベクトルの間の距離と訓練ラベルとを関連付けて、1個の損失関数値を導出する。
関数値導出部13は、第1の署名情報から抽出された第1の局所的特徴ベクトルシーケンスと、第2の署名情報から抽出された第2の局所的特徴ベクトルシーケンスと、時系列データの組み合わせに付与された訓練ラベルを用いて表される損失関数値を導出する。具体的には、関数値導出部13は、局所的特徴ベクトルの対応関係の系列を用いて、系列における各対応関係について局所的特徴ベクトルの間の距離と訓練ラベルとを関連付けるように、1個の損失関数値を導出する。
ニューラルネットワークのパラメータを決定することのみが目的であれば、損失関数値自体が導出される必要はない。更新部14が例えば勾配法を用いて損失関数値の勾配を導出すれば、損失関数値自体は導出されなくてよい。損失関数値自体が導出されない場合、学習装置1は、関数値導出部13を備えなくてもよい。更新部14は、損失関数値の勾配のみを導出して、損失関数値が最小となるようにニューラルネットワークのパラメータを更新すればよい。
ただし、損失関数値の観測は、実装されたアルゴリズムがデバッグされるために必要である。そこで以下では、損失関数値の導出方法を説明する。
関数値導出部13は、1個の局所的損失関数値を導出する。同一人物の署名情報が抽出部11に入力された場合、系列における各対応関係の局所的特徴ベクトルの距離が長いほど、導出された1個の局所的損失関数値は大きくなる。異なる人物の署名情報が抽出部11に入力された場合、系列における各対応関係の局所的特徴ベクトルの距離が短いほど、導出された1個の局所的損失関数値は大きくなる。
関数値導出部13は、対応関係の系列における全ての対応関係から導出された局所的損失関数値の平均を、損失関数値として導出してもよい。関数値導出部13は、損失関数値を更新部14に出力する。
以下、関数値導出部13の出力である損失関数値は、「L」と表記される。訓練ラベルは、「z」と表記される。訓練ラベル「z」に関して、「z∈{0,1}」が成立する。訓練ラベル「z」は、同一人物の署名情報である場合、「1」である。訓練ラベル「z」は、異なる人物の署名情報である場合、「0」である。
損失関数値「L」は、式(3)のように導出される。式(3)の右辺に示された「τ」は、ハイパーパラメータである。「τ」に関して、「τ∈[0,√2]」が成立する。ここで、分母の「L」は、局所的特徴ベクトルの対応関係の系列の長さを表す。
Figure 2021039598
同一人物の署名情報が訓練データとして入力された場合、局所的特徴ベクトルの距離が長いほど、損失関数値「L」は、式(3)に示されているように大きくなる。異なる人物の署名情報が訓練データとして入力された場合、局所的特徴ベクトルの距離が短いほど、損失関数値「L」は、式(3)に示されているように大きくなる。
系列における対応関係の各「(i,j)∈Π」について、関数値導出部13は、局所的損失関数値「li,j」を、式(4)のように導出する。
Figure 2021039598
関数値導出部13の出力である損失関数値は、「L=(1/L)Σ(i,j)∈Πi,j」と表記される。この右辺の「L」は、局所的特徴ベクトルの対応関係の系列の長さ(個数)を表す。
図9は、第1アルゴリズムの例を示す図である。関数値導出部13は、図9に例示された第1アルゴリズムに基づいて、選択部12から取得された局所的特徴ベクトルの対応関係の系列に対して関数値の導出処理を実行する。第1アルゴリズムの「while」文において示されているように、関数値導出部13は、局所的特徴ベクトルの対応関係の系列に基づいて、局所的損失関数値「li,j」の総和を導出する。関数値導出部13は、時刻の対応関係の系列の長さ「L」に基づいて、局所的損失関数値の平均を導出する。図9では、関数値導出部13は、局所的損失関数値の平均を、更新部14に出力する。
なお、関数値導出部13は、導出された全ての局所的損失関数値を用いて1個の値を導出するのであれば、局所的損失関数値の平均以外の値を導出してもよい。例えば、関数値導出部13は、局所的損失関数値の平均を導出する代わりに、局所的損失関数値の総和又は重み付き平均を導出してもよい。
[更新部14]
更新部14は、局所的損失関数値を、局所的特徴ベクトルの組み合わせごとに関数値導出部13から取得する。更新部14は、例えば局所的損失関数値の統合値(例えば、平均)を、関数値導出部13から取得してもよい。更新部14は、局所的損失関数値に基づいて、損失関数値を最適化するように、ニューラルネットワークのパラメータを更新する。更新部14は、局所的特徴ベクトルの対応関係の系列を用いて、系列における全ての対応関係における局所的損失関数値の統合値が最小になるように、例えば勾配法を用いてニューラルネットワークのパラメータを更新する。
以下では、損失関数値「L」における、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」に関する偏微分係数「{g(x) i,k}」と、第2の局所的特徴ベクトルシーケンス「Y」の各値「yj,k」に関する偏微分係数「{g(y) j,k}」の導出方法(算出方法)とが説明される。なお、隠れユニットの値に関する偏微分係数は、例えば、深層学習の周知技術を用いて導出されてもよい。
更新部14は、系列における対応関係の各「(i,j)∈Π」について、局所的損失関数値「li,j」における局所的特徴ベクトルシーケンス「X」の各値「xi,k」に関する偏微分係数「γ(x) i,j,k」を、式(5)のように導出する。更新部14は、「γ(y) i,j,k=−γ(x) i,j,k」に基づいて、「yj,k」に関する偏微分係数を導出する。
Figure 2021039598
損失関数値「L」における偏微分係数「g(x) i,k」は、式(6)のように表される。
Figure 2021039598
図10は、第2アルゴリズムの例を示す図である。更新部14は、図10に例示された第2アルゴリズムに基づいて、パラメータの更新処理を実行する。第2アルゴリズムの「while」文において示されているように、更新部14は、局所的特徴ベクトルの対応関係の系列に基づいて、「xi,k」に関する偏微分係数「γ(x) i,j,k」の総和を導出する。更新部14は、局所的特徴ベクトルの対応関係の系列の長さ「L」に基づいて、損失関数値「L」における「xi,k」に関する偏微分係数「g(x) i,k」を導出する。
以上のように、実施形態の学習装置1は、抽出部11と、選択部12と、更新部14とを備える。抽出部11は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第1の時系列データ(例えば、認証対象署名)から抽出する。抽出部11は、第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第2の時系列データ(例えば、テンプレート署名)から抽出する。選択部12は、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの距離の統合値が所定条件を満たす組み合わせの順序を選択する。更新部14は、選択された順序の組み合わせごとの距離に応じた損失関数値に基づいて、ニューラルネットワークのパラメータを更新する。更新部14は、ニューラルネットワークのパラメータを、例えば記憶装置に記録する。
これによって、時系列データ同士の照合の精度を向上させることが可能である。
非特許文献2では、プーリング層又は全結合層の働きによって、時系列データの時刻情報が消失する。このため、学習段階では局所的特徴ベクトルシーケンスの各値は、全ての時刻において均一的に更新される。これに対して、更新部14は、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」が第2の局所的特徴ベクトルシーケンス「Y」のどの時刻「j」に対応付けられているかに応じて、式(5)及び式(6)に示されているように、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」を適応的に更新する。そのため、更新部14は、より識別力の高い局所的な特徴ベクトルを効果的に学習することが可能である。
選択部12は、時刻の値が単調増加していない組み合わせの割合が所定の閾値以下である場合、単調性制約が一定程度に満たされていると判定してもよい。選択部12は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)又は第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)の時間長と比較して、時刻同士の差が所定値以下である場合、連続性制約が一定程度に満たされていると判定してもよい。選択部12は、時系列で最初の第1の局所的特徴ベクトルと、時系列で所定位置の第2の局所的特徴ベクトルとが組み合わされている場合、境界条件制約が一定程度に満たされていると判定してもよい。また、ニューラルネットワークのパラメータは、損失関数値の総和又は重み付き平均が所定の条件を満たす(例えば、最小値をとる等、可能な限り小さくなる)ように、損失関数値の勾配に基づいて更新されてもよい。
(第2実施形態)
第2実施形態では、第1実施形態に示された学習装置1と、照合処理を実行する照合装置との相違点等を、照合装置について説明する。
時系列データが照合される段階(照合段階)では、照合装置は、局所的特徴ベクトルの対応関係の系列に基づいて、系列の全ての対応関係における局所的特徴ベクトルの距離の統合値を、時系列データ同士の距離として導出する。
図11は、照合装置2の構成例を示す図である。照合装置2は、入力部10と、抽出部11と、選択部12と、距離導出部15と、判定部16とを備える。
照合装置2の入力部10と抽出部11と選択部12とは、学習装置1の入力部10と抽出部11と選択部12と同様に動作する。すなわち、入力部10は、第1の時系列データと、第2の時系列データとを、抽出部11に入力する。入力部10は、訓練ラベルを関数値導出部13に入力する。
学習装置1の学習結果として、学習装置1のパラメータは、例えば、照合装置2の記憶装置に記憶されている。照合装置2の抽出部11は、学習装置1の抽出部11のパラメータを使用する。照合装置2の抽出部11は、図8に示された抽出部11のパラメータを、照合装置2の記憶装置から取得する。
[抽出部11]
抽出部11は、第1の時系列データ「X(斜体文字)」と、第2の時系列データ「Y(斜体文字)」とを、入力部10から取得する。抽出部11は、第1の局所的特徴ベクトルシーケンスを、第1の時系列データから抽出する。抽出部11は、第2の局所的特徴ベクトルシーケンスを、第2の時系列データから抽出する。抽出部11は、第1の局所的特徴ベクトルシーケンス「X」と、第2の局所的特徴ベクトルシーケンス「Y」とを、選択部12に出力する。
[選択部12]
選択部12は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとを、抽出部11から取得する。選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻と、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻とを整合させる。すなわち、選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルとの対応関係の系列を選択する。選択部12は、局所的特徴ベクトルの対応関係の系列を、距離導出部15に出力する。
図12は、照合装置2のハードウェア構成例を示す図である。照合装置2は、プロセッサ200と、メモリ201と、記憶装置202とを備える。
照合装置2の各機能部のうちの一部又は全部は、CPU等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)である記憶装置からメモリに展開されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記録媒体である。プログラムは、電気通信回線を経由して送信されてもよい。照合装置2の各機能部のうちの一部又は全部は、例えば、LSI、ASIC、PLD又はFPGA等を用いた電子回路を含むハードウェアを用いて実現されてもよい。
[距離導出部15]
距離導出部15は、局所的特徴ベクトルの対応関係の系列を、選択部12から取得する。距離導出部15は、局所的特徴ベクトルの対応関係の系列に基づいて、系列における全ての対応関係における局所的特徴ベクトルの距離の統合値を、時系列データ同士の距離として導出する。距離導出部15は、対応関係の系列の全ての対応関係における局所的特徴ベクトルの距離の平均を、距離の統合値として、式(7)に示されているように導出する。
Figure 2021039598
図13は、第3アルゴリズムの例を示す図である。選択部12は、図13に例示された第3アルゴリズムに基づいて、選択処理を実行する。距離導出部15は、図13に例示された第3アルゴリズムに基づいて、距離の統合値(例えば、距離の平均)を導出する処理を実行する。
第3アルゴリズムの「for」文において示されているように、選択部12は、対応関係の系列の全ての対応関係における局所的特徴ベクトルの距離の総和「cW,W」を導出する。図13に示された「L」は、局所的特徴ベクトルの対応関係の個数、すなわち、局所的特徴ベクトルの対応関係の系列「Π」の長さを表す。第3アルゴリズムの「while」文において示されているように、距離導出部15は、系列「Π」の長さ「L」を用いて、「cW,W/L」のように、距離の総和「cW,W」に基づいて距離の平均を導出する。
なお、距離導出部15は、局所的特徴ベクトルの組み合わせごとに導出された全ての距離を用いて1個の値を導出するのであれば、距離の平均以外の値を導出してもよい。例えば、距離導出部15は、距離の平均を導出する代わりに、距離の総和又は重み付き平均を導出してもよい。第3アルゴリズムの「for」文において、距離の総和「cW,W」が導出されている。このため、第3アルゴリズムの「while」文では、局所的特徴ベクトルシーケンスの対応関係の系列は導出されなくてよい。
距離導出部15は、1個以上のテンプレート署名として入力された第2の署名情報の各々について、認証対象署名として入力された第1の署名情報と第2の署名情報との距離の総合値を導出する。距離導出部15は、第1の署名情報と第2の署名情報との距離の総合値(例えば、距離の平均)を、判定部16に出力する。
[判定部16]
判定部16は、第1の署名情報と第2の署名情報との距離の総合値(例えば、距離の平均)を、距離導出部15から取得する。判定部16は、第1の署名情報と第2の署名情報との距離の平均を、例えば式(8)又は式(9)のように導出する。
Figure 2021039598
Figure 2021039598
ここで、「X(斜体文字)」は、認証対象署名を表す。「{Y,…,Y}(斜体文字)」は、1個以上のテンプレート署名の集合を表す。
判定部16は、第1の署名情報及び第2の署名情報が同一クラスの署名情報であるか否か(例えば、同一人物によって作成された署名情報であるか否か)を、時系列データである署名情報同士の距離に基づいて判定する。例えば、判定部16は、全ての第2の署名情報に関して導出された距離の総合値(例えば、距離の平均)を、1個のスコアとして導出する。判定部16は、予め定められた閾値とスコアとを比較する。
スコアが閾値未満である場合、判定部16は、認証対象署名とテンプレート署名とが同一人物によって作成された署名情報であると判定する。スコアが閾値以上である場合、判定部16は、認証対象署名とテンプレート署名とが異なる人物によって作成された署名情報であると判定する。
以上のように、実施形態の照合装置2は、抽出部11と、選択部12と、判定部16とを備える。抽出部11は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第1の時系列データ(例えば、認証対象署名)から抽出する。抽出部11は、第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第2の時系列データ(例えば、テンプレート署名)から抽出する。選択部12は、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの距離の統合値(例えば、局所的特徴ベクトルの距離の平均、距離の総和、距離の重み付き平均)が所定条件を満たす組み合わせの順序を選択する。判定部16は、第1の局所的時系列データ及び第2の局所的時系列データが同一クラスの時系列データ(例えば、同一人物によって作成された署名情報)であるか否かを、距離の統合値に基づいて判定する。
これによって、時系列データ同士の照合の精度を向上させることが可能である。
選択部12は、時刻の値が単調増加していない組み合わせの割合が所定の閾値以下である場合、単調性制約が一定程度に満たされていると判定してもよい。選択部12は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)又は第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)の時間長と比較して、時刻同士の差が所定値以下である場合、連続性制約が一定程度に満たされていると判定してもよい。選択部12は、時系列で最初の第1の局所的特徴ベクトルと、時系列で所定位置の第2の局所的特徴ベクトルとが組み合わされている場合、境界条件制約が一定程度に満たされていると判定してもよい。また、ニューラルネットワークのパラメータは、損失関数値の総和又は重み付き平均が所定の条件を満たす(例えば、最小値をとる等、可能な限り小さくなる)ように、損失関数値の勾配に基づいて更新されてもよい。
図15に示されているように、異なる人物(同一でない人物)の署名情報から抽出された局所的特徴ベクトルシーケンスは、互いに類似している局所的特徴ベクトルの対応関係が多数存在する場合であっても、単調性制約と連続性制約と境界条件制約とを対応関係の系列が満たしていない場合がある。
そこで、照合装置2は、特定される局所的特徴ベクトルの対応関係の系列を、単調性制約と連続性制約と境界条件制約とを満たす局所的特徴ベクトルの対応関係の系列のみに制限する。これによって、照合装置2は、各制約を満たさない対応関係の系列(例えば、図15に示された局所的特徴ベクトルの対応関係の系列)にも適合してしまうこと(過剰適合)を回避することが可能になる。
図3において破線によって示されているように、局所的特徴ベクトルシーケンス同士における局所的な相違を有効に特定することが可能になる。その結果、時系列データ同士の局所的な相違に基づいて、時系列データの全体の距離をより正確に導出することが可能になる。
同一人物の署名情報から抽出された局所的特徴ベクトルシーケンスでは、非線形の時間的変動(例えば、局所的な位置変化又は速度変化)が生じる場合でも、図4において実線及び破線によって示されているように、局所的特徴ベクトルの対応関係の系列(局所的特徴ベクトルの組み合わせの順序)が、単調性制約と連続性制約と境界条件制約とを満たすことがある。このため、照合装置2は、非線形時間的変動の影響をほとんど受けることなく、局所的特徴ベクトルの対応関係を正しく特定することが可能になる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、機械学習を実行する学習装置と、機械学習の結果を用いて信号同士を照合する照合装置とに適用可能である。
1…学習装置、2…照合装置、10…入力部、11…抽出部、12…選択部、13…関数値導出部、14…更新部、15…距離導出部、16…判定部、17…出力部、100…プロセッサ、101…メモリ、102…記憶装置、200…プロセッサ、201…メモリ、202…記憶装置

Claims (9)

  1. 第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、
    前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択部と、
    選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値に基づいて前記パラメータを更新する更新部と
    を備え、
    前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、
    前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、
    前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、
    学習装置。
  2. 第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、
    前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択部と、
    前記第1の時系列データ及び前記第2の時系列データが同一クラスの時系列データであるか否かを前記距離の統合値に基づいて判定する判定部と
    を備え、
    前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、
    前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、
    前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、
    照合装置。
  3. 前記選択部は、
    時刻の値が単調増加していない前記組み合わせの割合が所定の閾値以下である場合、前記単調性制約が一定程度に満たされていると判定し、
    前記第1の特徴ベクトルの系列又は前記第2の特徴ベクトルの系列の時間長と比較して、前記時刻同士の差が所定値以下である場合、前記連続性制約が一定程度に満たされていると判定し、
    時系列で最初の前記第1の特徴ベクトルと、時系列で所定位置の前記第2の特徴ベクトルとが組み合わされている場合、前記境界条件制約が一定程度に満たされていると判定する、
    請求項1に記載の学習装置。
  4. 前記選択部は、
    時刻の値が単調増加していない前記組み合わせの割合が所定の閾値以下である場合、前記単調性制約が一定程度に満たされていると判定し、
    前記第1の特徴ベクトルの系列又は前記第2の特徴ベクトルの系列の時間長と比較して、前記時刻同士の差が所定値以下である場合、前記連続性制約が一定程度に満たされていると判定し、
    時系列で最初の前記第1の特徴ベクトルと、時系列で所定位置の前記第2の特徴ベクトルとが組み合わされている場合、前記境界条件制約が一定程度に満たされていると判定する、
    請求項2に記載の照合装置。
  5. 前記パラメータは、
    前記損失関数値の総和又は重み付き平均が所定の条件を満たすように、前記損失関数値の勾配に基づいて更新される、
    請求項1又は請求項3に記載の学習装置。
  6. 前記パラメータは、
    選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値の総和又は重み付き平均が所定の条件を満たすように、前記損失関数値の勾配に基づいて更新される、
    請求項2又は請求項4に記載の照合装置。
  7. 学習装置が実行する学習方法であって、
    第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出ステップと、
    前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択ステップと、
    選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値に基づいて前記パラメータを更新する更新ステップと
    を含み、
    前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、
    前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、
    前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、
    学習方法。
  8. 照合装置が実行する照合方法であって、
    第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出ステップと、
    前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択ステップと、
    前記第1の時系列データ及び前記第2の時系列データが同一クラスの時系列データであるか否かを前記距離の統合値に基づいて判定する判定ステップと
    を含み、
    前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、
    前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、
    前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、
    照合方法。
  9. 請求項1、3及び5のいずれか一項に記載の学習装置として、又は、請求項2、4及び6のいずれか一項に記載の照合装置として、コンピュータを機能させるためのプログラム。
JP2019161335A 2019-09-04 2019-09-04 学習装置、照合装置、学習方法、照合方法及びプログラム Active JP7174382B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161335A JP7174382B2 (ja) 2019-09-04 2019-09-04 学習装置、照合装置、学習方法、照合方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161335A JP7174382B2 (ja) 2019-09-04 2019-09-04 学習装置、照合装置、学習方法、照合方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021039598A true JP2021039598A (ja) 2021-03-11
JP7174382B2 JP7174382B2 (ja) 2022-11-17

Family

ID=74847149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161335A Active JP7174382B2 (ja) 2019-09-04 2019-09-04 学習装置、照合装置、学習方法、照合方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7174382B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247991A (ja) * 2011-05-27 2012-12-13 Kddi Corp 類似度評価装置及び方法
JP2015052994A (ja) * 2013-09-09 2015-03-19 日本電信電話株式会社 特徴選択装置、学習装置、方法、及びプログラム
JP2018205994A (ja) * 2017-06-01 2018-12-27 株式会社東芝 時系列データ分析装置、時系列データ分析方法およびコンピュータプログラム
JP2019040465A (ja) * 2017-08-25 2019-03-14 トヨタ自動車株式会社 行動認識装置,学習装置,並びに方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247991A (ja) * 2011-05-27 2012-12-13 Kddi Corp 類似度評価装置及び方法
JP2015052994A (ja) * 2013-09-09 2015-03-19 日本電信電話株式会社 特徴選択装置、学習装置、方法、及びプログラム
JP2018205994A (ja) * 2017-06-01 2018-12-27 株式会社東芝 時系列データ分析装置、時系列データ分析方法およびコンピュータプログラム
JP2019040465A (ja) * 2017-08-25 2019-03-14 トヨタ自動車株式会社 行動認識装置,学習装置,並びに方法およびプログラム

Also Published As

Publication number Publication date
JP7174382B2 (ja) 2022-11-17

Similar Documents

Publication Publication Date Title
US10127432B2 (en) Derived virtual quality parameters for fingerprint matching
US6219639B1 (en) Method and apparatus for recognizing identity of individuals employing synchronized biometrics
EP0539749B1 (en) Handwriting recognition system and method
CN111091176A (zh) 数据识别设备及方法和训练设备及方法
CN110852755B (zh) 针对交易场景的用户身份识别方法和装置
CN108154136B (zh) 用于识别字迹的方法、装置及计算机可读介质
Sharabiani et al. Efficient classification of long time series by 3-d dynamic time warping
CN110414550B (zh) 人脸识别模型的训练方法、装置、系统和计算机可读介质
KR20120114564A (ko) 대표 지문 템플릿 생성 장치 및 방법
JP4136316B2 (ja) 文字列認識装置
CN112560710B (zh) 一种用于构建指静脉识别系统的方法及指静脉识别系统
Arora et al. A computer vision system for iris recognition based on deep learning
Nathwani Online signature verification using bidirectional recurrent neural network
US20210200994A1 (en) Processing method of learning face recognition by artificial intelligence module
CN113378852A (zh) 关键点检测方法、装置、电子设备及存储介质
JP7174382B2 (ja) 学習装置、照合装置、学習方法、照合方法及びプログラム
JP7347750B2 (ja) 照合装置、学習装置、方法、及びプログラム
Barman et al. Improving person re-identification systems: A novel score fusion framework for rank-n recognition
Thakare et al. A Novel End-To-End Approach For Offline Signature Verification System
CN102308307B (zh) 用于模式发现和识别的方法
Virdaus et al. Fingerprint verification with crossing number extraction and orientation-based matching
Sucharta et al. A survey on various pattern recognition methods for the identification of a Different types of images
KR20220088166A (ko) 복수의 사용자 환경에서 필기 입력 인식 방법 및 장치
Vinod et al. Handwritten Signature Identification and Fraud Detection using Deep Learning and Computer Vision
US10546179B2 (en) Distorted fingerprint matching using pose and minutia grouping

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190904

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7174382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150