JP2019109885A - オブジェクト認識装置及び方法 - Google Patents

オブジェクト認識装置及び方法 Download PDF

Info

Publication number
JP2019109885A
JP2019109885A JP2018230088A JP2018230088A JP2019109885A JP 2019109885 A JP2019109885 A JP 2019109885A JP 2018230088 A JP2018230088 A JP 2018230088A JP 2018230088 A JP2018230088 A JP 2018230088A JP 2019109885 A JP2019109885 A JP 2019109885A
Authority
JP
Japan
Prior art keywords
image
target image
input image
target
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018230088A
Other languages
English (en)
Other versions
JP7163159B2 (ja
Inventor
承周 韓
Jaejoon Han
承周 韓
成彦 朴
Sungun Park
成彦 朴
在濬 韓
Seungju Han
在濬 韓
辰雨 孫
Jinwoo Son
辰雨 孫
昌用 孫
Chang-Yong Son
昌用 孫
民守 高
Minsu Ko
民守 高
智慧 金
Jihye Kim
智慧 金
昌圭 崔
Chang Kyu Choi
昌圭 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019109885A publication Critical patent/JP2019109885A/ja
Application granted granted Critical
Publication of JP7163159B2 publication Critical patent/JP7163159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】オブジェクトの認識に成功して追加検証に失敗した場合に、簡素化した検証を行うことで、検証正確度を保持しながらも短い処理時間で検証失敗率を減少させることができるオブジェクト認識装置及び方法を提供する。【解決手段】オブジェクト認識装置は、オブジェクトに対する認識は成功したが、ライブネス検証が失敗した場合、オブジェクトモデルの一部のレイヤを用いて短縮されたオブジェクトの認識を行う。オブジェクト認識装置は、短縮されたオブジェクト認識が成功した場合、再びライブネス検証を行う。【選択図】図5

Description

以下、オブジェクトを認識する技術が提供される。
顔認証技術は生体認証技術の1つとして、静画や動画に示された顔に基づいてユーザが正当なユーザであるか否かを決定する認証技術である。顔認証技術によって認証対象者の身元を非接触式に確認できる。最近では、顔認証技術の便利さ及び効率性のためにセキュリティーシステム、モバイル認証、及びマルチメディアデータの検索などの様々な応用分野で顔認証技術が幅広く活用されている。
一実施形態に係るオブジェクト認識装置の目的は、オブジェクトの認識に成功して追加検証に失敗した場合には、検証を簡素化することにある。
一実施形態に係るオブジェクト認識方法は、入力イメージのオブジェクトの認識に成功した後に前記入力イメージの検証に失敗したことに応答して、前記入力イメージのオブジェクトの認識で使用されたオブジェクトモデルの一部のレイヤによって以前に抽出された基準中間データに基づいて前記オブジェクトモデルを用いて対象イメージを検証するステップと、前記対象イメージの検証で前記対象イメージが検証された場合に応答して、前記対象イメージに対する追加検証を行うステップとを含む。
オブジェクト認識方法において、前記入力イメージの前記検証及び前記追加検証は、ライブネスモデルを用いて行われる個別ライブネス検証動作であり得る。
前記入力イメージの前記オブジェクトの認識は登録基盤認識(登録内容に基づく認識)であり、前記対象イメージの前記検証で前記対象イメージが検証されるとき、前記対象イメージの識別は、前記対象イメージの登録基盤認識を実行せずに行われる。
前記対象イメージの検証に失敗すると、前記対象イメージの登録基盤認識が行われる。
前記入力イメージの前記オブジェクトの認識は登録基盤認識であり、前記対象イメージの前記検証で前記対象イメージが検証されるとき、前記対象イメージの前記追加検証は、前記対象イメージの登録基盤認識を実行せずに行われる。
前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記基準中間データを用いて、前記対象イメージが指示するオブジェクトと前記入力イメージが指示するオブジェクトとが同一であるか否かを決定するステップを含み得る。
前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルの前記一部のレイヤと同じレイヤの中間性を有する前記対象イメージの前記検証で使用された前記オブジェクトモデルの一部のレイヤで、前記対象イメージの前記検証で使用された前記オブジェクトモデルの前記一部のレイヤによって抽出された対象中間データが前記基準中間データにマッチングするかを判断するステップを含み得る。
前記対象中間データが前記基準中間データにマッチングするかを判断するステップは、前記対象中間データ及び前記基準中間データ間のマッチングスコアを算出するステップと、前記マッチングスコアが予め決定された閾値を超過する場合に応答して、前記対象イメージが前記入力イメージと同じオブジェクトを含むものと決定するステップとを含み得る。
前記追加検証を行うステップは、前記対象イメージに含まれたオブジェクトが生体であるかを指示する決定された十分なライブネス特性を、前記対象イメージが有するか否かを検証するステップを含み得る。
前記決定された十分なライブネス特性を前記対象イメージが有するか否かを検証するステップは、ライブネスモデルを用いて、前記対象イメージに対するライブネススコアを算出するステップと、前記ライブネススコアが予め決定されたライブネス閾値を超過する場合に応答して、前記対象イメージが前記十分なライブネス特性を有するものと決定するステップとを含み得る。
オブジェクト認識方法は、オブジェクトイメージの選択フレームである前記対象イメージ、及び前記入力イメージを有する複数のフレームから構成される前記オブジェクトイメージを取得するステップと、前記入力イメージの前記オブジェクトの認識を行うステップとをさらに含み得る。
オブジェクト認識方法は、前記入力イメージの前記オブジェクトの認識の成功に応答して、前記入力イメージに対して前記検証を行うステップをさらに含み得る。
前記入力イメージの前記オブジェクトの認識を行うステップは、前記入力イメージの前記オブジェクトの認識で前記オブジェクトモデルの使用を介して、前記入力イメージから基準出力データを抽出するステップと、前記基準出力データにマッチングする登録データが登録データベースに存在するとの決定に応答して、前記入力イメージが識別されたと決定するステップとを含み得る。
前記入力イメージが識別されたと決定するステップは、前記基準出力データと前記登録データとの間のマッチングスコアを算出するステップと、前記マッチングスコアが出力閾値を超過する場合に応答して、前記入力イメージのオブジェクトが前記登録データのオブジェクトと同じものと決定するステップとを含み得る。
オブジェクト認識方法は、前記入力イメージの前記オブジェクトの認識の実行の間に、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルの前記一部のレイヤによって、抽出された基準中間データを格納するステップを含み得る。
前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記対象イメージの前記検証の失敗に応答して、前記対象イメージの前記検証で使用された前記オブジェクトモデルをさらに使用する前記対象イメージのオブジェクトの認識の完了の結果として、前記対象イメージに対する対象出力データを算出するステップと、前記算出された対象出力データにマッチングする登録データが登録データベースに存在するとの決定に応答して、前記対象イメージが識別されたと決定するステップとを含み得る。
前記算出された対象出力データが前記登録データベースで登録データにマッチングしないとの決定に応答して、新しいオブジェクトイメージを取得して前記新しいオブジェクトイメージの該当の入力イメージのオブジェクトの認識を行うステップをさらに含み得る。
前記対象イメージ及び前記入力イメージは、オブジェクトイメージの選択フレームであり、前記基準中間データを用いて、前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記入力イメージの次のフレームを前記対象イメージとして選択するステップを含み得る。
前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記基準中間データに対する前記対象イメージの前記検証に使用された前記オブジェクトモデルを構成する総n個のレイヤのうちm番目のレイヤに基づいて、前記対象イメージから抽出された対象中間データと、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルの前記m番目のレイヤによって前記入力イメージから抽出された基準中間データとを比較するステップを含み得る。
オブジェクト認識方法は、前記入力イメージ及び前記対象イメージが取得された一連のフレームを含むオブジェクトイメージ、対象イメージ、又は、入力イメージの分析に基づいて整数mを選択するステップをさらに含み得る。
オブジェクト認識方法は、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルによって、前記入力イメージから抽出された基準出力データ及び予め決定された登録データ間のマッチングスコアが出力閾値を超過するとの決定に応答して、前記入力イメージに対する認識が成功したと決定するステップをさらに含み、前記基準中間データを用いて、前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記基準中間データ及び前記対象イメージから前記対象イメージの前記検証で使用された前記オブジェクトモデルによって抽出された対象中間データ間の更なるマッチングスコアが中間閾値を超過するか否かを判断するステップを含み、前記中間閾値は前記出力閾値よりも大きくてもよい。
オブジェクト認識方法は、以前に取得されたオブジェクトイメージに含まれる複数のフレームのうち、個別フレームに対応する前記入力イメージ及び前記対象イメージに対して、前記入力イメージの前記オブジェクト認識が失敗する場合に応答して、新しいオブジェクトイメージを取得するステップをさらに含み得る。
オブジェクト認識方法は、前記対象イメージに対する追加検証が失敗する場合に応答して、前記他の対象イメージの該当検証で使用された前記オブジェクトモデルの一部のレイヤに基づいて、他の対象イメージの対象中間データを抽出するステップ(前記他の対象イメージは、前記対象イメージの次のフレームに対応するイメージである)と、前記他の対象イメージの前記該当検証は、前記対象中間データ及び前記基準中間データに基づいて前記他の対象イメージを検証する動作を含み得る。
一実施形態に係るオブジェクト認識装置は、オブジェクトモデルを格納するメモリと、入力イメージのオブジェクトの認識に成功した後に前記入力イメージの検証が失敗した場合に応答して、前記入力イメージのオブジェクトの認識で使用された前記オブジェクトモデルの一部のレイヤによって以前に抽出された基準中間データに基づいて、前記オブジェクトモデルを用いて前記対象イメージを検証し、前記対象イメージの検証で前記対象イメージが検証された場合に応答して、前記対象イメージの追加検証を行うプロセッサとを含む。
一実施形態に係るオブジェクト認識装置は、オブジェクトの認識の成功後に追加検証が失敗した場合に簡素化した検証を行うことで、検証正確度を保持しながらも短い処理時間で検証失敗率を減少させることができる。
一実施形態に係るモデルの例示を説明する図である。 一実施形態に係るオブジェクト認識装置の概略的な構成を示すブロック図である。 一実施形態に係るオブジェクト認識装置のトレーニングを説明する図である。 一実施形態に係るオブジェクト認識方法を示すフローチャートである。 一実施形態に係るオブジェクトの認識の過程を説明する図である。 一実施形態に係るオブジェクトの認識の過程を説明する図である。 一実施形態に係るオブジェクトの認識の過程を説明する図である。 一実施形態に係るオブジェクトを認識する過程を詳細に説明するフローチャートである。 コンピューティング装置の例示を示すブロック図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。しかし、特許出願の範囲がこのような実施形態によって制限されたり限定されたりすることはない。各図面に提示された同じ参照符号は同じ部材を示す。
本明細書で開示されている特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1は、一実施形態に係るモデルの例示を説明する図である。
一実施形態によれば、オブジェクトモデルは、ニューラルネットワーク100を含む。ニューラルネットワーク100に基づいて、オブジェクトの認識を行う方法、及びその方法を行う装置(以下、オブジェクト認識装置)が提案され、該当のニューラルネットワーク100をトレーニングさせる方法及び装置(以下、オブジェクトトレーニング装置)が提案される。本明細書において、認識は、検証及び識別を含む。検証は、入力データが真か偽りかを判断する動作を示し、識別は、複数のラベルのうち入力データが指示するラベル(label)を判断する動作を示す。
まず、一実施形態に係るオブジェクトの認識を説明する前に、ニューラルネットワーク100の概略的な構造について説明する。
一実施形態によれば、ニューラルネットワーク100は、複数のノードで構成される複数のレイヤを含む。また、ニューラルネットワーク100は、複数のレイヤのそれぞれに含まれた複数のノード及び他のレイヤに含まれたノード間の加重された連結を提供する連結加重値又は連結強度を含む。ニューラルネットワーク100は、同じレイヤ内でノードを他のノードに連結する連結加重値及び/又は、ノードを複数の自身に相違する時間で連結する連結加重値を含む。例えば、認識及び/又は検証するとき、オブジェクト認識装置は、個別ニューラルネットワーク100をメモリに格納された内部データベースから取得し、通信部を介して外部サーバから要求、受信、又はアップデートして取得できる。ニューラルネットワーク100は、また、オブジェクトトレーニング装置によってトレーニングされ得る。オブジェクトトレーニング装置は、以下で説明するように、実質的に連結加重値及び構造的な調整によってトレーニングされたニューラルネットワーク100を生成する。ニューラルネットワーク100は、内部DB又は他のメモリに格納され、外部サーバからオブジェクト認識装置に対してオブジェクトの認識のための用途として提供されてもよい。トレーニングは、ニューラルネットワーク100又は検証(例えば、ライブネス検出)のための更なるニューラルネットワーク100をトレーニングさせることを含む。例えば、オブジェクトトレーニング装置及びオブジェクト認識装置は、また、同じ装置であるか分離された装置であってもよい。
例えば、ニューラルネットワーク100は、専門化された演算構造認識及び/又はライブネスモデルとして具現されれば、一連の演算的に強力な処理をニューラルネットワーク100のトレーニングされた目的に基づいて行う。ニューラルネットワーク100は、例えば、オブジェクト認識装置又はオブジェクトトレーニング装置の1つ以上のプロセッサを介して具現され、ニューラルネットワーク100のパラメータを取得した後、ニューラルネットワーク100をハードウェア又はハードウェア及びソフトウェアの結合によって具現される。例えば、オブジェクト認識装置又はオブジェクトトレーニング装置のメモリに格納された命令によって具現されてもよい。命令は、1つ以上のプロセッサによって行われる場合、1つ以上のプロセッサが認識及び/又はライブネスモデルを具現できるように誘発し得る。
上述したように、ニューラルネットワーク100は、複数のレイヤを含んでもよい。例えば、ニューラルネットワーク100は、1つ以上の入力レイヤ110、複数の隠れレイヤ120、1つ以上の出力レイヤ130を含む。ここで、隠れレイヤ120は、単一のレイヤのように示されているが、これは説明のためのもので、示された隠れレイヤ120は、1つ又は複数の隠れレイヤを示し得る。類似に、入力レイヤ110及び出力レイヤ130は、個別的に1つ以上のレイヤを示してもよい。例えば、複数の入力レイヤがあり、個別に異なる隠れレイヤを連結してもよい。複数の出力レイヤが単一の隠れレイヤ又は個別的に複数の隠れレイヤに連結されてもよい。したがって、入力レイヤ110は、トレーニング又は認識及び/又は検証を行うための入力を受信し、入力を隠れレイヤ120に伝達する。ここで、隠れレイヤ120のそれぞれは、他の目的のために構成されてもよく、隠れレイヤの個数は、様々な構造及び所望する効率に応じて選択されてもよく、各隠れレイヤ120は、個別出力を生成して次の隠れレイヤ120に入力してもよい。出力レイヤ130は、最終隠れレイヤ120から受信した信号に基づいてニューラルネットワーク100の出力を生成する。トレーニングの間に隠れレイヤ120のパラメータ(例えば、連結加重値)は、入力レイヤ110を介して受信されたトレーニングデータのトレーニング入力に基づいて繰り返し調整され又は変化させられる。出力レイヤが十分に正確な値又はラベルを出力するまでトレーニングが繰り返され、ラベルは、予測しやすい値、又はニューラルネットワーク100の目的のために有用な値を示す。類似に、認識/検証又は他の推論動作の間に実際世界イメージデータは入力レイヤ110に提供され、個別隠れレイヤはそれぞれ個別の演算動作を行う。例えば、隠れレイヤは、個別ノードの活性化関数により、出力レイヤ130が認識/ライブネス又は入力イメージデータに対する他の推論動作の結果を指示するために使用され得る情報を含む出力を生成するまで演算動作を行ってもよい。
入力レイヤ110、隠れレイヤ120、及び出力レイヤ130は、複数のノードを含む。入力レイヤ110に含まれたノードは入力ノードと称され、隠れレイヤ120に含まれたノードは隠れノードと称され、出力レイヤ130に含まれたノードは出力ノードと称される。また、全て又は少なくとも1つの隠れ及び出力レイヤノードは、それぞれ個別的に予め決定された活性化関数を適用してもよく、活性化関数は、ニューラルネットワーク100の具現に非線型を担当する。
例えば、入力レイヤ110に含まれた選択された又は全ての入力ノードは、最初又は次の隠れレイヤ120に含まれた選択された又は各隠れノードと連結され得る。例えば、互いに異なるレイヤとエッジに連結加重値を介して連結されてもよい。ここで、入力レイヤ110及び最初の又は次の隠れレイヤ120の、このような時系列的な関連性は、ニューラルネットワーク100の低い深度又はレイヤの動作として参照され得る。次の隠れレイヤ120の間でさらに発生する動作は、ニューラルネットワーク100の中間又はさらに深い深度又はレイヤで発生する動作として参照され得る。出力レイヤ130の前に最後の隠れレイヤ120で発生する動作は、ニューラルネットワーク100の最も高い隠れ深度又はレイヤで発生する動作として参照され得る。類似に、隠れレイヤ又は隠れレイヤのセットのうちの1つよりも低い深度又はレイヤで発生する動作は、認識/ライブネス又は他の推論動作の間にニューラルネットワークの処理シーケンスの観点で、隠れレイヤのセット又はいずれかの隠れレイヤの前に隠れレイヤ120の全て又は1つ以上を含んでもよい。また、上述したように、最終又は最も高い隠れレイヤ120に含まれた隠れノードと出力レイヤ130に含まれた出力ノードは、連結加重値を有する連結線を介して連結され得る。
複数の隠れレイヤを含むニューラルネットワーク100は、ディープニューラルネットワーク(deep neural network:DNN)であるか、DNNの部分であってもよい。限定されない実施形態として、ニューラルネットワーク100は、畳み込み、プーリング、デコンボリューション、デポーリング、リカレント、バイディレクション、又は、完全連結の部分を含んでもよく、他の目的のために個別的にトレーニングされてもよい。例えば、ニューラルネットワーク100は、低い隠れレイヤ120を有し、識別の目的のためにトレーニングされた特徴ベクトル又はマップを抽出できる畳み込みレイヤを含んでもよい。また、次又は高い隠れレイヤ120は、畳み込み及び/又は完全連結の隠れレイヤ120を含んでもよく、ライブネステスト目的のために抽出された特徴ベクトル又はマップに対して確率的な情報又はラベルを抽出してもよい。他の例示として、第1ニューラルネットワーク100は、このような様々な隠れレイヤ120で構成され、識別の目的のためにトレーニングされた特徴ベクトル又はマップを個別的に抽出する畳み込みレイヤ及び/又は認識、又は識別の目的のために抽出された特徴ベクトル又はマップに対して、ラベル又は確率的な情報を抽出できる完全連結隠れレイヤを含む。一方、第2ニューラルネットワーク100がこのような様々な隠れレイヤ120から構成され、ライブネス目的の側面のために、トレーニングされた特徴ベクトル又はマップを抽出できる畳み込みレイヤ及び/又はライブネス目的のために抽出された特徴ベクトル又はマップに対してラベル又は確率的情報を抽出する完全連結隠れレイヤを含む。また、レイヤは、LSTM(long short term memory)ノードを含んでもよい。複数の隠れレイヤを含むニューラルネットワークのトレーニングは、深化学習(deep learning)と称される。隠れレイヤ120に第1隠れレイヤ、第2隠れレイヤ、及び第3隠れレイヤが含まれる場合を仮定すれば、第1隠れレイヤに属する隠れノードの出力は、第2隠れレイヤに属する隠れノードに連結される。第2隠れレイヤに属する隠れノードの出力は、第3隠れレイヤに属する隠れノードに連結される。
例えば、オブジェクト認識装置は、各隠れレイヤに以前の隠れレイヤに含まれた以前の隠れノードの個別出力を連結加重値を有する連結線により入力され、以前の隠れノードの出力に連結加重値が適用された値、及び活性化関数に基づいて隠れレイヤに含まれた隠れノードの出力を生成する。活性化関数の結果が現在の隠れノードに対する最小閾値を超過しない場合、その活性化関数の結果は、高いレベルの隠れノードに送信されないことがある。ノードは、入力ベクトルによって予め決定された閾値の活性化強度に達するまで次のノードに信号を伝達できないことがあり、不活性化状態を保持する。例えば、閾値が満足されなければ、次のノードに結果を送信する代わりに、パディング値又はゼロ値が交代に反射されてもよく、又は、単に該当の連結加重値に対して該当の積演算が行われなくてもよい。
一実施形態に係るオブジェクトトレーニング装置は、監督学習(supervised learning)によりニューラルネットワーク100をトレーニング又は生成してもよい。オブジェクトトレーニング装置は、ハードウェア又はソフトウェア及びハードウェアの組合せで具現される。監督学習は、トレーニングデータのトレーニング入力、それに対応するトレーニング出力を共にニューラルネットワーク100に入力し、トレーニングデータのトレーニング出力に対応する出力データが出力されるよう、トレーニング入力の知られたラベル又は側面に基づいて連結線の連結加重値をアップデートする方式である。例えば、トレーニングデータは、トレーニング入力及び既知の所望するトレーニング出力の対を含むデータである。図1は、ニューラルネットワーク100の構造をノード構造と表現したが、実施形態はこのようなノード構造に限定されることはない。オブジェクトトレーニング装置及び/又はオブジェクト認識装置のメモリストレージにニューラルネットワークを格納するために様々なデータ構造を用いてもよい。様々なデータ構造は、トレーニングされたパラメータを格納することを含んでもよく、例えば、トレーニングされた連結加重値をベクトル、行列、ボリューム、又は、単一又は多重次元データの構造として格納することを含む。
トレーニングにおいて、オブジェクトトレーニング装置は、臨時ニューラルネットワークに逆伝搬される損失及び臨時ニューラルネットワークに含まれたノードの出力値に基づいた勾配降下(gradient descent)法により、ノードのパラメータを決定する。例えば、臨時ニューラルネットワークの連結加重値の初期値が決定され、その後、初期の連結加重値を有する臨時ニューラルネットワークに対するトレーニングが行われる。例えば、トレーニングでオブジェクトトレーニング装置は、損失逆伝搬学習により多くのレイヤの様々なノード間の連結加重値を調整してアップデートし得る。損失逆伝搬学習は、与えられたトレーニングデータに対してフォワード算出により損失を推定した後、出力レイヤ130から始まって隠れレイヤ120及び入力レイヤ110に向かう逆方向に推定した損失を伝搬しながら、損失を減らす方向に連結加重値をアップデートする方法である。推論動作の間のニューラルネットワーク100に同様に、臨時ニューラルネットワークの処理は、入力レイヤ110、隠れレイヤ120、及び出力レイヤ130の方向に進行されるが、損失逆伝搬トレーニングで連結加重値のアップデート方向は、臨時ニューラルネットワークで出力レイヤ130、隠れレイヤ120、及び入力レイヤ110の方向に進行されてもよい。1つ又はそれ以上のプロセッサは、臨時ニューラルネットワークを所望する方向に処理するため、レイヤ又は一連の算出データを格納するバッファメモリを用いてもよい。
オブジェクトトレーニング装置は、現在に設定された臨時ニューラルネットワークの連結加重値がどれ程最適に近いかを測定するための目的関数を定義し、目的関数の結果に基づいて連結加重値を続けて調整又は変更し、トレーニングを繰り返し行う。例えば、目的関数は、臨時ニューラルネットワークがトレーニングデータのトレーニング入力に基づいて実際に出力した出力値と出力されるよう、所望する期待値との間の損失を算出するための損失関数である。オブジェクトトレーニング装置は、損失関数の値を減らす方向に連結加重値をアップデートし得る。ここで、図1を参照して、トレーニング動作が臨時ニューラルネットワークに対して議論されたが、オブジェクトトレーニング装置による上記のようなトレーニングは、ニューラルネットワーク100のトレーニングの側面で議論されてもよい。例えば、ニューラルネットワーク100の上記のようなトレーニングは、臨時ニューラルネットワークを参照し、最終臨時ニューラルネットワークが決定されるまで臨時ニューラルネットワークに対するパラメータの調整又は変更が繰り返されてもよい。高い正確度又は最小の誤差を有すれば、トレーニングは終了される。最終の臨時ニューラルネットワークがトレーニングされたニューラルネットワークとして格納される。該当のニューラルネットワーク100のためのトレーニングデータは、イメージデータ又はその情報を含み得る。類似に、ライブネストレーニングに対してトレーニングデータはイメージデータ又は特徴データを含んでもよい。
図2は、一実施形態に係るオブジェクト認識装置の概略的な構成を示すブロック図である。
オブジェクト認識装置200は、イメージ取得部210、プロセッサ220、及びメモリ230を含む。
イメージ取得部210は、オブジェクトイメージを取得する。例えば、イメージ取得部210はカメラを含んでもよく、オブジェクトを撮影することによってオブジェクトイメージが生成される。また、オブジェクトイメージは、任意のオブジェクトに関する複数のフレームに対応するイメージを含む。複数のフレームに対応する一連のイメージは、オブジェクトを撮影した時間の順に応じて生成される。ただし、イメージ取得部210がこれに限定されることなく、イメージ取得部210は、カラー映像の他にも深度映像などを取得してもよい。例えば、イメージ取得部210は、カラー及び深度イメージをキャプチャーするよう構成される1つ以上のカメラを示す。また、イメージ取得部210は、1つ以上のイメージカメラ及び1つ以上の深度カメラを含んでもよい。
本明細書において、オブジェクトイメージは、オブジェクトの少なくとも一部が撮影されたイメージを示す。例えば、オブジェクトは人であってもよく、オブジェクトイメージは、オブジェクトの少なくとも一部として、人の顔が撮影されたイメージであってもよい。ただし、これに限定されることはない。
プロセッサ220は、オブジェクトイメージのうち入力イメージを選択し、入力イメージに対してオブジェクトの認識を行う。例えば、プロセッサ220は、入力イメージに示されるオブジェクトが登録データベースに登録されたか否かを決定するオブジェクトの認識を行う。プロセッサ220は、予めトレーニングされたオブジェクトモデル231に基づいて、オブジェクトイメージのいずれかのフレームに対応する入力イメージを認識し得る。例えば、オブジェクトモデルは、図1に示すニューラルネットワーク100に対応する。プロセッサ220は、オブジェクトモデル231にイメージを入力して特徴データを抽出又は生成するオブジェクトモデル231によって特徴データを抽出し得る。プロセッサ220は、抽出された特徴データを用いて、抽出された特徴データを予め決定された登録情報に比較するなどによってイメージを認識し得る。プロセッサ220は、オブジェクトが登録されていないか、登録情報に十分にマッチングしないものと決定されれば、認識が失敗したと決定する。プロセッサ220は、入力イメージに対するオブジェクト認識が成功した場合(例えば、オブジェクトが登録された場合、十分に登録情報にマッチングしたと判断された場合)に応答して、入力イメージに対する追加検証を行う。
一実施形態によれば、追加検証は、撮影されたオブジェクトが偽造、又はユーザ又は人の偽造イメージ、例えば、ノンライブ(non−live)イメージであるか否かを判断するためのライブネステスト動作を示す。例えば、追加検証は、イメージがキャプチャーされたイメージのライブネスを示す特性を有するか否かを検証する動作を含んでもよい。ライブネスは、オブジェクトが実際の生体であるか否かを示す。例えば、ライブネスは、オブジェクトイメージの各フレームごとに決定されるライブネスパラメータに基づいて決定される。ライブネスパラメータは、各フレームが実際のユーザを有効に撮影したイメージに基づいたことかを示す。例えば、ライブネスパラメータは、任意のフレームに対応するイメージが実際のユーザを撮影したものであれば真(true)として示し、偽造されたものであれば偽(false)として示す。ライブネステスト動作は、ライブネスモデルによって行われ、ライブネスモデルは、図1に示す更なるニューラルネットワーク100に対応してもよいし、認識モデルを含むニューラルネットワーク100の後続の部分であってもよい。
プロセッサ220は、追加検証が成功した場合、オブジェクト認識が最終的に成功したと決定する。例えば、オブジェクトがオブジェクト認識動作においてすでに認識されれば、プロセッサ220は、オブジェクトイメージが真のライブネスパラメータを有するか、ライブネステストが成功したと検証された場合、オブジェクトイメージから認識されたオブジェクトを完全又は最終的に承認する。例えば、完全オブジェクト認識は2つの決定を含んでもよく、最初の決定は、オブジェクトがオブジェクト認識動作として認識又は識別されたか、2番目の決定は、ライブネステストが追加検証動作において成功的であったか否かである。
一実施形態によれば、プロセッサ220は追加検証が失敗する場合、オブジェクトの認識を繰り返すことができる。例えば、次のキャプチャーされた対象イメージ又は以前の入力イメージで他のフレームに対応する対象イメージに対して、プロセッサ220はオブジェクトの認識を繰り返すことができる。プロセッサ220は、最初の以前入力イメージに対して実行された「完全」オブジェクト認識よりも単純化されたオブジェクトの認識を行う。例えば、プロセッサ220は、以前の入力イメージに対するライブネス検証が失敗した場合、対象イメージの認識/識別分析のパフォーマンスを開始してもよい。この分析により、プロセッサ220は、オブジェクトモデル231の一部のレイヤで生成された特徴又は特徴情報に基づいて、入力イメージ及び対象イメージを比較する。例えば、ニューラルネットワーク100は認識モデルとして、下位隠れレイヤ120のノードの結果は、次又は上位隠れレイヤ120のノードに連結又は提供されるよう設定された結果又は情報を生成する。この分析の脈絡として、下位隠れレイヤ120は、「一部のレイヤ」として参照され、全体ニューラルネットワークの一部に対応する隠れレイヤの結果を表現する。例えば、一部のレイヤのような情報は、特徴ベクトル又は特徴マップのフォーマットであってもよい。したがって、以前イメージに対する下位隠れレイヤからの結果は、所定の閾値に基づいて同じオブジェクトモデルに入力された対象イメージに対する同じ隠れレイヤの結果と類似し得る。例えば、入力イメージ及び対象イメージによって同じオブジェクトが指示されると決定又は検証に応答して、プロセッサ220は、対象イメージに対して残りの後続隠れレイヤ動作をスキップ又は実行できないことがある。例えば、認識/識別分析の動作を終了し、対象イメージの追加検証を直ちに行ってもよい。限定されない例示として、スキップの決定時にプロセッサ220は、対象イメージの認識/識別の結果を入力イメージの認識/識別結果と同一であると決定する。そして、プロセッサ220は、対象イメージをライブネステストモデルに入力して対象イメージの追加検証を行う。また、認識が対象イメージに対して少なくとも部分的に行われる間に、ライブネステストは、対象イメージに対して同時に行われる。例えば、スキップの決定があった場合、対象イメージのライブネステストは、ライブネステストの結果が生成されるまで続いてもよい。一方、スキップの決定がない場合、残りの認識隠れレイヤ動作は対象イメージに対して行われ、認識結果が失敗である場合、すなわち、対象イメージに対応する登録情報が発見されない場合、対象イメージのライブネステストの完了前にライブネステストは完了前に終了される。2つの例示で、対象イメージの認識及びライブネステスト動作は、実質的に完全認識及びライブネステスト動作がスキップすることなく行われる場合よりも迅速である。したがって、例示において、対象イメージの検証動作は、対象イメージが入力イメージと同じオブジェクトを含むと指示する場合、認識又は識別は直ちに承認され、プロセッサ220は、対象イメージの追加検証が成功したと決定される場合に対象イメージからオブジェクトを最終的に認識することができる。
一部のレイヤは、例えば、低いレベルに対応する特徴を出力又は生成し、残りのレイヤは、一部のレイヤよりも高いレベルに対応する特徴を出力する。例えば、高いレベルに対応する特徴は、低いレベルに対応する特徴よりもさらに抽象化された特徴であってもよい。
メモリ230は、上述したオブジェクトモデル231及びライブネステストモデルを格納する。また、メモリ230は、オブジェクトイメージ、入力イメージ、対象イメージ、入力イメージ及び/又は対象イメージに対する一部のレイヤの出力、オブジェクトモデル231の出力、及び追加検証動作及び/又はオブジェクトの認識の間に要求される情報を臨時的又は永久的に格納し得る。
図3は、一実施形態に係るオブジェクト認識装置のトレーニングを説明する図である。
トレーニング装置300は、オブジェクト認識装置に用いられるオブジェクトモデル321をトレーニングさせる。一実施形態に係るトレーニング装置300は、プロセッサ310及びメモリ320を含む。
プロセッサ310は、トレーニングデータ322に基づいてオブジェクトモデル321をトレーニングさせる。トレーニングデータ322は、トレーニング入力及びトレーニング出力の対を含む。トレーニング入力は、例えば、トレーニングイメージであってもよい。トレーニング出力は、例えば、任意のトレーニングイメージに対して与えられたオブジェクトラベルであってもよい。オブジェクトラベルは、トレーニングイメージに示されるオブジェクトを指示するラベルとして、例えば、ユーザの身元(ID、identification)であってもよい。例えば、プロセッサ310は、図1に示すニューラルネットワーク100のトレーニングで議論されたことに対応するオブジェクトモデルのトレーニングを行う。追加的又は代案的に、プロセッサ310は、図1に示すニューラルネットワーク100のトレーニングで議論されたライブネステストモデルのトレーニングを行う。
一実施形態によれば、プロセッサ310は、オブジェクトモデル321がトレーニング入力からトレーニング出力を出力するよう、オブジェクトモデル321をトレーニングさせ得る。例えば、トレーニングの間に、プロセッサ310は、オブジェクトモデル321に基づいて、トレーニング入力から算出される出力とトレーニング出力との間の損失を最小化することで、オブジェクトモデル321をトレーニングさせる。プロセッサ310は、トレーニング入力から算出された出力とトレーニング出力との間の損失が最小化されるよう、オブジェクトモデル321のパラメータをアップデートすることで、オブジェクトモデル321をトレーニングさせ得る。
図4は、一実施形態に係るオブジェクト認識方法を示すフローチャートである。
まず、オブジェクト認識装置は、オブジェクトモデルに基づいて入力イメージを認識し得る。上述したように、オブジェクトモデルは、図1に示すニューラルネットワーク100及び/又は図2及び/又は図3に示す各オブジェクトモデルに対応する。また、入力イメージの認識について、図4に示す動作が適用されてもよい。オブジェクト認識装置は、オブジェクトモデルに基づいて入力イメージから基準出力データを抽出する。オブジェクト認識装置は、基準出力データにマッチングする登録データが登録データベースに存在する場合に応答して、入力イメージが識別されたと決定する。そして、オブジェクト認識装置は、入力イメージが認識された場合、入力イメージに対する追加検証を行う。オブジェクト認識装置は、入力イメージがライブネスを有するか否かを判断する。例えば、オブジェクト認識装置は、基準中間データを用いて、次の対象イメージが指示するオブジェクトが入力イメージが指示するオブジェクトと同一であるか、予め決定された閾値に基づいて十分に類似しているかを決定する。
オブジェクト認識装置は、認識されたオブジェクトのオブジェクトモデルに入力された以前イメージに対する追加検証が失敗した場合、該当オブジェクトに対して単純化された認識動作を次の対象イメージに対して行う。例えば、ステップS410において、オブジェクト認識装置は、オブジェクトモデルに基づいた入力イメージに対するオブジェクトの認識の成功後に追加検証又はライブネステストが失敗した場合に応答して、入力イメージからオブジェクトモデルの一部のレイヤに基づいて抽出された基準中間データを用いて入力イメージと次の対象イメージを検証する。
そして、ステップS420において、オブジェクト認識装置は、対象イメージが検証された場合に応答して、対象イメージに対する追加検証(例えば、ライブネステスト)を行う。例えば、オブジェクト認識装置は、対象イメージに含まれたオブジェクトが実際の生体であるか否かを示すライブネスを対象イメージが有するか否かを決定する。
オブジェクト認識装置は、対象イメージに対するライブネステストに基づいて、対象イメージのライブネススコアを決定し得る。例えば、対象イメージが実際のユーザを有効に撮影したものに類似するほど、ライブネススコアは高く決定される。例えば、偽造イメージ(fake image)内の特定フレームにライブネスがあるものと間違って決定されることを防止するために、現在フレームのライブネススコアは、少なくとも1つの以前フレームを考慮して決定され得る。例えば、対象イメージのライブネススコアは、k番目のフレームに関するライブネステストに基づいて取得された第1ライブネススコア、及び以前フレームに対応する入力イメージに関して決定された第2ライブネススコアの累積に基づいて決定されてもよい。ここで、kは整数である。入力イメージは、k−1番目のフレームに対応する。したがって、対象イメージに行われるライブネステストは、対象イメージ及び入力イメージに基づいて及び/又は入力イメージのライブネステストで生成されるライブネススコアにさらに基づいて、ライブネススコアを生成し得る。
オブジェクト認識装置は、対象イメージに関して決定されたライブネススコアと対象イメージに関するライブネス閾値とを比較してライブネスパラメータを決定し得る。例えば、対象イメージのライブネススコアが対象イメージに関するライブネス閾値以上である場合、オブジェクト認識装置は、対象イメージのライブネスパラメータを対象イメージがライブネスを有するものと決定する。
一実施形態によれば、オブジェクト認識装置は、k番目のフレームに関するライブネス閾値を、k番目のフレームの分析結果に基づいて調整し得る。例えば、k番目のフレームの顔領域の大きさが適正範囲から離れた場合、オブジェクト認識装置は、k番目のフレームに関するライブネス閾値を高く決定する。
また、オブジェクト認識装置は、ライブネスモデルに基づいて、対象イメージに対するライブネススコアを算出する。ライブネスモデルは、例えば、ニューラルネットワークであってもよく、トレーニングイメージからトレーニングラベルを出力するようにトレーニングされてもよい。図1に示すニューラルネットワーク100に対する説明はライブネスモデルに適用されてもよい。トレーニングラベルは、トレーニングイメージがライブネスを有するか、有しないことを指示する値であってもよい。オブジェクト認識装置は、ライブネススコアがライブネス閾値を超過する場合に応答して、対象イメージがライブネスを有するものと決定する。
図5ないし図7は、一実施形態に係るオブジェクトの認識の過程を説明する図である。
図5は、一実施形態に係るオブジェクトの認識の概略的な過程を説明する。
まず、オブジェクト認識装置は、複数のフレームから構成されるオブジェクトイメージを取得する。オブジェクト認識装置は、1次オブジェクト認識(S510)により入力イメージからオブジェクトを認識し、1次オブジェクト認識(S510)が成功した場合、追加検証(S520)を行う。
例えば、オブジェクト認識装置は、オブジェクトイメージからいずれかのフレームに対応する入力イメージを選択(S511)する。オブジェクト認識装置は、例えば、複数のフレームのうち、特定領域にオブジェクトの少なくとも一部(例えば、顔)が適切にフィッティングされたフレームに対応するイメージを入力イメージとして選択する。
そして、オブジェクト認識装置は、入力イメージに対してオブジェクト認識(S512)を行う。オブジェクト認識装置は、入力イメージに対するオブジェクト認識(S512)が失敗した場合、認識最終失敗(S550)として決定する。
オブジェクト認識装置は、入力イメージに対してオブジェクト認識(S512)が成功した場合、追加検証(S520)を行う。例えば、追加検証(S520)は、ライブネスモデルに対して入力イメージを提供すること、又は1次オブジェクト認識(S510)で使用されたオブジェクトモデルの中間又は部分結果を提供すること含む。例えば、オブジェクト認識装置は、追加検証(S520)により入力イメージがライブネスを有するか否かを決定する。オブジェクト認識装置は、入力イメージがライブネスを有する場合、最終認識成功(S560)として決定する。
入力イメージに対する追加検証(S520)が失敗した場合、オブジェクト認識装置は、2次オブジェクト認識(S530)により対象イメージを検証する。
例えば、オブジェクト認識装置は、オブジェクトイメージのうち対象イメージを選択(S531)する。オブジェクト認識装置は、入力イメージと他のフレームに対応するイメージを対象イメージとして選択する。オブジェクト認識装置は、オブジェクトイメージのうち、入力イメージに対応するフレームの次のフレームを対象イメージとして選択する。
そして、オブジェクト認識装置は、対象イメージに対するオブジェクト認識(S532)を行う。例えば、オブジェクト認識装置は、オブジェクトモデルの一部のレイヤ533に基づいて対象イメージから対象中間データを抽出する。オブジェクト認識装置は、対象中間データと入力イメージから抽出された基準中間データとの間の比較に基づいて対象イメージを検証し得る。オブジェクト認識装置は、対象中間データ及び基準中間データがマッチングする場合に応答して、対象イメージが検証されたと決定し得る。例えば、対象中間データ及び基準中間データがマッチングする場合、オブジェクト認識装置は、対象イメージと入力イメージとの間の連続性が存在すると決定し得る。
本明細書において、基準中間データは、オブジェクトモデルの一部のレイヤ533に基づいて入力イメージから抽出された特徴データを示す。対象中間データは、オブジェクトモデルの一部のレイヤ533に基づいて対象イメージから抽出された特徴データを示す。特徴データは、イメージが抽象化されたデータとして、例えば、ベクトル形態のデータであってもよい。複数のイメージ間の連続性は、複数のイメージが一連のフレームに関っていることを示す。連続する複数のイメージは同じオブジェクトを含む。
一実施形態によれば、オブジェクトモデルは、n個のレイヤから構成されてもよく、一部のレイヤはm番目のレイヤを示し、残りのレイヤはm+1番目からn番目までのレイヤを示す。ここで、nは2以上の整数であり、mはnよりも小さく1よりも大きい整数である。例えば、オブジェクト認識装置は、オブジェクトモデルを構成するn個のレイヤのうち、m番目のレイヤに基づいて対象イメージから抽出された対象中間データ、及びm番目のレイヤに基づいて入力イメージから抽出された基準中間データを比較する。また、設計に応じて、mは変更されてもよい。また、オブジェクト認識装置は、オブジェクトイメージの属性情報(例えば、ピクセル数、及び明るさの平均など)に基づいてmを動的に変更することで、基準中間データ及び対象中間データを抽出するためのレイヤを決定し得る。
オブジェクト認識装置は、一部のレイヤ533に基づいた対象イメージの検証が失敗した場合(例えば、対象中間データと基準中間データとの間の比較が2つのデータが十分に類似しないか、同一でないと指示する場合)、残りのレイヤ534に基づいた対象イメージの識別を行う。例えば、オブジェクト認識装置は、一部のレイヤ533から出力された対象中間データを残りのレイヤ534に伝搬することにより対象出力データを生成し得る。オブジェクト認識装置は、対象出力データにマッチングする登録データが存在する場合、対象イメージが識別されたと決定する。例えば、検証が失敗した場合、完全認識又は識別動作は、究極的に1次オブジェクト認識(S510)と類似する方法で行われてもよい。一方、対象イメージの検証が成功する場合、このような登録基盤認識は、対象イメージを識別するために実行されなくてもよい。
本明細書における対象出力データは、対象イメージから最終的に算出された、オブジェクトモデルの出力データを示す。基準出力データは、入力イメージから最終的に算出されたオブジェクトモデルの出力データを示す。
オブジェクト認識装置は、残りのレイヤ534に基づいた対象イメージの識別が失敗した場合、認識最終失敗(S550)と決定する。その後、オブジェクト認識装置は、新しいオブジェクトイメージを取得して再び認識を行う。
一部のレイヤ533に基づいた対象イメージの検証又は残りのレイヤ534に基づいた対象イメージの識別が成功した場合、オブジェクト認識装置は、対象イメージに対する追加検証(S540)を行う。例えば、対象イメージは、ライブネステストモデルに提供され、2次オブジェクト認識(S530)で使用されたオブジェクトモデルの中間又は部分結果はライブネステストモデルに提供される。
オブジェクト認識装置は、対象イメージに対する追加検証(S540)が成功した場合、最終認識成功(S560)と決定する。また、オブジェクト認識装置は、対象イメージに対する追加検証(S540)が失敗した場合、オブジェクトイメージから新しい対象イメージを選択(S531)する。その後、オブジェクト認識装置は、新しい対象イメージに対して再び2次オブジェクト認識(S530)及び追加検証(S540)を行う。
入力イメージに対する追加検証(S520)の失敗は、入力イメージそのものが偽造イメージである可能性を示す。オブジェクト認識装置は、入力イメージに対する追加検証(S520)が失敗した場合、対象イメージに対する2次オブジェクト認識(S530)及び対象イメージに対する追加検証(S540)により対象イメージを識別及び検証する。オブジェクト認識装置は、対象イメージから抽出された対象中間データを入力イメージから抽出された基準中間データを比較することで、対象イメージの識別に求められる時間を節減できる。
また、対象イメージがライブネスを有する場合、オブジェクト認識装置は、入力イメージもライブネスを有するものと決定する。対象イメージ及び入力イメージは、一連のオブジェクトイメージから選択されたものであるため、互いに関わっている。したがって、オブジェクト認識装置は、識別された対象イメージに対する追加検証を再び行うことで認識の正確度を保障できる。
参考として、説明の便宜のために、1次オブジェクト認識(S510)と2次オブジェクト認識(S530)は分離して示したが、オブジェクト認識装置は、実際には、同じオブジェクトモデルを用いて時間の順に応じて1次オブジェクト認識(S510)と2次オブジェクト認識(S530)を行うことができる。例えば、オブジェクト認識装置は、オブジェクトモデルを用いた1次オブジェクト認識(S510)が終了した後、それと同じオブジェクトモデルを用いて2次オブジェクト認識(S530)を行ってもよい。
ただし、これに限定されることなく、オブジェクト認識装置は、第1オブジェクトモデルに入力イメージを入力することによって1次オブジェクト認識(S510)を実行しながら、1次オブジェクト認識(S510)が行われる間に、第1オブジェクトモデルと同じ構造の機械学習モデル及び同じパラメータを有する第2オブジェクトモデルに対象イメージを入力することで、2次オブジェクト認識(S530)を行ってもよい。この場合、オブジェクト認識装置は、第1オブジェクトモデルの一部のレイヤに基づいて入力イメージから基準中間データが抽出された後、第2オブジェクトモデルの同じ一部のレイヤに基づいて第2オブジェクトモデルの完了前に対象イメージから対象中間データを抽出し、対象イメージ及び入力イメージがキャプチャーされたオブジェクトに対して十分に類似するか否かを決定し得る。オブジェクトモデルの動作は、第2オブジェクトモデルの完全完了前に中断されてもよく、ライブネステストが実質的に対象イメージに対して第2オブジェクトモデルの完全動作よりも迅速に具現されるようにし得る。
図6は、1次オブジェクト認識(S510)を説明する図である。
まず、ステップS620において、オブジェクト認識装置は、オブジェクトモデルに基づいて入力イメージから基準出力データを算出する。例えば、オブジェクト認識装置は、入力イメージに対応するデータを一部のレイヤ621から残りのレイヤ622に伝搬することによって基準出力データを算出する。一部のレイヤは単一又は2つ以上のレイヤとして、入力レイヤの次であってもよく、他の隠れレイヤの次であってもよい。基準中間データ及び対象中間データは、一部のレイヤからそれぞれ結果として出力され、ノード又は活性化の結果を含む。ここで、オブジェクト認識装置は、オブジェクトモデルの一部のレイヤ621に基づいて、入力イメージから抽出された基準中間データを格納する。例えば、基準中間データは、特徴ベクトル又は特徴マップであってもよい。
本明細書における一部のレイヤ621は1つ以上のレイヤを含んでもよく、残りのレイヤ622も1つ以上のレイヤを含んでもよい。各レイヤは複数のノードを含んでもよく、各レイヤのノードは、他のレイヤのノードと連結加重値を有する連結線により連結されてもよい。オブジェクト認識装置は、各レイヤのノードに入力されたデータを連結線により伝搬し得る。したがって、ライブネスモデルに類似するよう、図1に示すニューラルネットワーク100に対する説明がオブジェクトモデルに適用され得る。
そして、ステップS640において、オブジェクト認識装置は、オブジェクトモデルに基づいて入力イメージから抽出された基準出力データが登録データとマッチングするか否かを判断する。基準出力データにマッチングする登録データが存在する場合、オブジェクト認識装置は、入力イメージが識別されたと決定する。例えば、オブジェクト認識装置は、入力イメージが登録データに対応するオブジェクトを指示するものと決定し得る。
一実施形態によれば、オブジェクト認識装置は、基準出力データと登録データとの間のマッチングスコアを算出する。オブジェクト認識装置は、マッチングスコアが出力閾値を超過する場合に応答して、入力イメージのオブジェクトが登録データのオブジェクトと同一なものと決定する。中間閾値は、出力閾値よりも大きい値として設定されてもよい。中間レイヤに対応する出力どうしの比較は、より高い正確性を要求するためである。
図7は、2次オブジェクト認識(S530)を説明する図である。
まず、対象イメージに対するオブジェクト認識(S532)において、オブジェクト認識装置は、オブジェクトモデルの一部のレイヤ533に基づいて対象イメージから対象中間データを抽出する。例えば、上述したように、対象中間データは特徴ベクトル又は特徴マップであってもよい。
そして、ステップS730において、オブジェクト認識装置は、対象イメージが以前フレームとマッチングするか否かを判断する。一実施形態によれば、オブジェクト認識装置は、対象イメージが入力イメージ(例えば、以前フレーム)にマッチングするか否かを決定する。例えば、オブジェクト認識装置は、対象イメージから、オブジェクトモデルの一部のレイヤに基づいて、抽出された対象中間データが基準中間データにマッチングするかを判断する。対象イメージはk番目のフレームであってもよく、入力イメージはk−1番目のフレームであってもよい。
一実施形態によれば、オブジェクト認識装置は、対象イメージが検証された場合に応答して、対象イメージに対する追加検証(S540)を行う。例えば、オブジェクト認識装置は、対象イメージが入力イメージにマッチングする場合、オブジェクト認識装置は、対象イメージに対する追加検証(S540)を行う。
対象イメージが入力イメージにマッチングしない場合、オブジェクト認識装置は、残りのレイヤ534に基づいたオブジェクトの認識を行う。例えば、オブジェクト認識装置は、一部のレイヤ533から出力された対象中間データを残りのレイヤ534に伝搬することで対象出力データを算出し得る。
ステップS740において、オブジェクト認識装置は、対象イメージが登録データベースにマッチングするか否かを決定する。一実施形態によれば、オブジェクト認識装置は、対象イメージが登録データベースに格納された登録イメージのうち少なくとも1つにマッチングするか否かを決定する。例えば、オブジェクト認識装置は、対象出力データが登録データにマッチングするか否かを決定する。
オブジェクト認識装置は、対象イメージが登録イメージにマッチングする場合、対象イメージに対する追加検証(S540)を行う。
また、オブジェクト認識装置は、対象イメージが登録イメージにマッチングしない場合、認識最終失敗(S550)と決定する。その後、オブジェクト認識装置は、新しいオブジェクトイメージを取得してオブジェクトの認識を行う。
図8は、一実施形態に係るオブジェクトを認識する過程を詳細に説明するフローチャートである。
まず、ステップS810において、オブジェクト認識装置は、連続するフレームのオブジェクトイメージを取得する。オブジェクトイメージは、ビデオ又は一連的に順次キャプチャーされたイメージのセットであり得る。
そして、ステップS811において、オブジェクト認識装置は、現在フレームイメージを入力イメージとして選択する。オブジェクト認識装置は、現在フレームとしてオブジェクトイメージのフレームのいずれか1つを選択する。
次に、ステップS820において、オブジェクト認識装置は、入力イメージに対するオブジェクトの認識を行う。例えば、ステップS821において、オブジェクト認識装置は、入力イメージに対する一部のレイヤの出力を格納する。入力イメージから一部のレイヤに基づいた出力は、基準中間データと示す。ステップS822において、オブジェクト認識装置は、入力イメージに対するオブジェクトモデルの出力を算出する。入力イメージからオブジェクトモデルに基づいた出力は基準出力データと示す。ステップS823において、オブジェクト認識装置は、入力イメージからオブジェクトモデルに基づいた出力が登録内容にマッチングするか否かを決定する。
オブジェクト認識装置は、オブジェクトモデルに基づいて入力イメージから抽出された基準出力データにマッチングする登録データが識別されない場合に応答して、オブジェクト認識が失敗したと決定する。オブジェクト認識装置は、複数のフレームから構成されるオブジェクトイメージのいずれかのフレームに対応する入力イメージに対する、オブジェクトモデルに基づいた認識が失敗する場合に応答して、新しいオブジェクトイメージを取得する。
そして、ステップS824において、オブジェクト認識装置は、入力イメージに対するライブネスを検査する。例えば、オブジェクト認識装置は、入力イメージがライブネスを有するか否かを決定することによって、入力イメージが偽造イメージであるか否かを決定する。
次に、ステップS860において、オブジェクト認識装置は、ライブネス検査が成功した場合、該当の入力イメージに対する認識が成功したと決定する。
そして、ステップS812において、オブジェクト認識装置は、オブジェクト認識が成功した後にライブネス検証が失敗した場合、次のフレームイメージを選択する。オブジェクト認識装置は、入力イメージの次のフレームに対応するイメージを対象イメージとして決定する。
次に、ステップS830において、オブジェクト認識装置は、対象イメージに対するオブジェクトの認識を行う。例えば、ステップS831において、オブジェクト認識装置は、対象イメージに対して一部のレイヤの出力を算出する。対象イメージから一部のレイヤに基づいた出力は、対象中間データと示す。
そして、ステップS840において、オブジェクト認識装置は、入力イメージ及び対象イメージの中間出力がマッチングするか否かを決定する。一実施形態によれば、オブジェクト認識装置は、対象中間データ及び基準中間データが互いにマッチングするか否かを決定する。例えば、オブジェクト認識装置は、対象中間データと基準中間データとの間のマッチングスコアを算出する。このようなマッチングスコアは、対象中間データと基準中間データとの間の決定されたユークリッド距離に基づき、対象中間データ及び基準中間データのそれぞれは、特徴ベクトル又は特徴マップに表現される。オブジェクト認識装置は、マッチングスコアが中間閾値を超過する場合に応答して、対象イメージが入力イメージと同じオブジェクトを含むものと決定する。中間閾値の値は、設計に応じて決定されてもよい。
次に、ステップS832において、オブジェクト認識装置は、対象イメージに対する残りのレイヤの出力を算出する。一実施形態によれば、オブジェクト認識装置は、基準中間データを用いた検証が失敗した場合に応答して、オブジェクトモデルに基づいて対象イメージから対象出力データを算出する。例えば、オブジェクト認識装置は、対象中間データを残りのレイヤに伝播することによって、対象出力データを算出し得る。
そして、ステップS833において、オブジェクト認識装置は、対象イメージに関する出力が登録内容にマッチングするか否かを決定する。例えば、オブジェクト認識装置は、対象出力データにマッチングする登録データを検索する。オブジェクト認識装置は、算出された対象出力データにマッチングする登録データが登録データベースに存在する場合に応答して、対象イメージが識別されたと決定する。
次に、ステップS850において、オブジェクト認識装置は、対象イメージに基づいたオブジェクト認識が成功した場合に対象イメージのライブネスを検査する。例えば、オブジェクト認識装置は、ステップS840において、対象イメージから抽出された対象中間データ及び入力イメージから抽出された基準中間データがマッチングする場合、対象イメージのライブネスを検査する。また、オブジェクト認識装置は、ステップS833において、対象イメージから抽出された対象出力データにマッチングする登録データが存在する場合、対象イメージのライブネスを検査する。
一実施形態によれば、オブジェクト認識装置は、対象イメージに対してライブネススコアを算出し、算出されたライブネススコアがライブネス閾値を超過するか否かを決定する。オブジェクト認識装置は、対象イメージのライブネススコアがライブネス閾値を超過する場合に応答して、対象イメージがライブネスを有するものと決定する。
ただし、オブジェクト認識装置は、ステップS833において、対象イメージが登録されていないと判断された場合、認識が最終的に失敗したと決定する。その後、オブジェクト認識装置は、ステップS810に戻って、新しいオブジェクトイメージを取得する。例えば、オブジェクト認識装置は、算出された対象出力データにマッチングする登録データが登録データベースに存在しない場合に応答して、新しいオブジェクトイメージを取得する。新しいオブジェクトイメージに対するこのような繰り返しは、更なる繰り返しが行われず認識不可と決定される前に予め決定された回数に対して行われてもよい。
また、オブジェクト認識装置は、ステップS850において、対象イメージに対するライブネス検査が失敗した場合、更なるフレームのイメージに対してオブジェクトの認識を行う。例えば、オブジェクト認識装置は、対象イメージに対するライブネス検査が失敗した場合、現在のイメージのその次のフレームを対象イメージに変更して選択する。一実施形態によれば、オブジェクトを検証する装置は、対象イメージに対する追加検証が失敗する場合に応答して、対象イメージの次のフレームに対応するイメージから一部のレイヤに基づいた対象中間データを抽出する。オブジェクトを検証する装置は、対象中間データ及び基準中間データに基づいて次のフレームに対応するイメージを検証する。
ステップS860において、オブジェクト認識装置は、オブジェクトイメージに対する認識及び追加検証が有効な場合に応答して、認識が成功したと最終的に決定する。例えば、オブジェクト認識装置は、入力イメージが登録データベースに登録されたものと識別され、入力イメージそのものがライブネスを有するものと決定された場合、入力イメージの認識が成功したと最終的に決定し得る。また、オブジェクト認識装置は、対象イメージが入力イメージにマッチングし、対象イメージそのものがライブネスを有するものと決定された場合、対象イメージの認識が成功したと最終的に決定し得る。
オブジェクト認識装置は、上述したステップS820、S821、S822、S823、S830、S831、S832、S833に対応する動作を同じパラメータを有するよう、トレーニングされたオブジェクトモデルに基づいて行う。
一実施形態に係るオブジェクト認識装置は、最初の識別が有効であるものの、追加検証が有効でない場合、その後には最初の識別で成功した結果に基づいて、オブジェクトモデルの一部のレイヤを用いることにより、対象イメージの識別に求められる時間を短縮できる。例えば、最初の識別の成功によって、対象に対して簡素化された認識が登録情報の比較を行う必要がなく、オブジェクトイメージを検証及び認識するために求められる時間を実質的に減少させ得る。
例えば、オブジェクト認識装置は、一部のレイヤに基づいて抽出された対象イメージの低レベル特徴と入力イメージの低レベル特徴とを比較し、2つのイメージに示されたオブジェクトの同一性を判断する。オブジェクト認識装置は、対象イメージと入力イメージとの間の同一性が検証される場合、対象イメージのライブネスを追加検証する。したがって、オブジェクト認識装置は、対象イメージの有効なライブネスを介して入力イメージのライブネスも有効なものと決定し、入力イメージに対して予め識別されたユーザが認識されたものと最終的に決定し得る。オブジェクト認識装置は、オブジェクト認識装置をアンロックし、オブジェクト認識装置の他の動作に対する権限(例えば、決済権限など)を許容することで、オブジェクト認識装置の機能にアクセス可能に許容する。
図9は、コンピューティング装置の例示を示すブロック図である。
コンピューティング装置900は、ユーザの顔などが示される入力イメージを取得することで認識プロセスを実行し、登録基盤識別及びライブネス決定を行う。コンピューティング装置900は、図2に示すオブジェクト認識装置200、図3に示すオブジェクト認識トレーニング装置300に対応する。
コンピューティング装置900は、プロセッサ910、メモリ920、カメラ930、格納装置940、入力装置950、出力装置960、及びネットワークインターフェース970を含む。上述したように、プロセッサ920、メモリ920、及びカメラ930は、それぞれプロセッサ220、メモリ230、及びイメージセンサ210、又はプロセッサ320、及びメモリ330に対応する。プロセッサ910、メモリ920、カメラ930、格納装置940、入力装置950、出力装置960、及びネットワークインターフェース970は、通信バス980を介して通信する。
プロセッサ910は、コンピューティング装置900内で実行するための機能及び命令を実行する。例えば、プロセッサ910は、格納装置940に格納された命令を処理する。プロセッサ910は、図1ないし図8を参照して前述した1つ以上の動作を行う。また、プロセッサ910は、コンピューティング装置900の機能を制御する。例えば、コンピューティング装置900は、モバイルフォン、タブレット、PCなどのようなモバイルデバイスであり得る。プロセッサ910は、コンピューティング装置900の典型的な機能を制御するように実現される。例えば、プロセッサ910は、オブジェクトイメージの認識の究極的な成功の指示、明示的又は暗示的な指示を具現する。このような暗示的な指示は、選択的にロックアウト(lock out)の動作を制御してユーザにアクセスを許容してもよいし、ユーザのキャプチャーされた顔イメージのライブネス決定及び識別の成功時に、典型的な機能を発揮してもよい。このとき、入力イメージ又は次の対象イメージに対して選択的に簡素化された認識動作が適用され得る。上述したように、コンピューティング装置900は、例えば、様々な電子システム、例えば、モバイルフォン、スマートフォン、PDS、タブレットコンピュータ又はラップトップコンピュータのようなモバイルデバイス、PC、ネットブックコンピュータのようなコンピューティング装置、又はTV、スマートTVなどのような電子製品、ゲート制御のためのセキュリティー装置などを含み得る。
メモリ920は、プロセッサ910の実行に必要な情報ないしデータを格納する。メモリ920は、オブジェクト及びライブネス決定のために用いられる情報を格納する。メモリ920は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能な格納装置を含む。メモリ920は、プロセッサ910によって実行するための命令を格納し、コンピューティング装置900によってソフトウェア又はアプリケーションが行われる間に関連情報を格納する。メモリ920は登録データを格納する。
カメラ930は、スチールイメージ、ビデオなどをキャプチャーし得る。プロセッサ910は、カメラ930を制御してオブジェクトイメージをキャプチャーする。例えば、オブジェクトイメージは、顔領域、指紋イメージ、目イメージ、瞳孔イメージ、及び/又は血管イメージなどのようにユーザが認証するイメージを含む。成功的な識別及びライブネスの決定により、プロセッサ920は、カメラ930が自動的にイメージをキャプチャーし、自動的にユーザのライブネス決定を行って識別するようにする。例えば、ユーザの開始なしに上述した識別を行うことができる。カメラ930は、プロセッサ910によって制御されてもよく、個人カメラとして動作されてもよい。
格納装置940は、コンピュータで読み出し可能な記録媒体又は装置であってもよい。格納装置940は、登録データベースを格納する。格納装置940は、メモリ920よりも多い量の情報を格納し、さらに長い期間の間に格納される。例えば、格納装置940は、例えば、マグネチックハードディスク、光学ディスク、フラッシュメモリ、フロッピーディスク、及び様々な形態のメモリを含んでもよい。格納装置940又はメモリ920は、オブジェクトモデル及び/又はライブネステストモデルを格納する。
入力装置950は、触覚、ビデオ、オーディオ、又はタッチ入力によりユーザから入力を受信し得る。入力装置950は、キーボード、マウス、タッチスクリーン、マイクロホン、又は、ユーザから入力を検出し、検出された入力をコンピューティング装置900に伝達できる任意の他の装置を含む。
出力装置960は、視覚的、聴覚的又は触覚的なチャネルを介して、ユーザにコンピューティング装置900の出力を提供する。出力装置960は、例えば、ディスプレイ、タッチスクリーン、スピーカ、振動発生装置、又は認識の成功を指示する情報又は視覚的かつ聴覚的サービスを提供してもよいし、成功的な認識の結果、例えば、識別及び検証決定が結果を指示する出力を提供できる任意の他の装置を含み得る。
ネットワークインターフェース970は、有線又は無線ネットワークを介して外部装置と通信する。例えば、プロセッサ910の制御により、ネットワークインターフェース970は決済権限を外部端末に送信し、例えば、近接送受信機によって送信された適切なモバイル決済命令を送信してもよい。また、プロセッサ910は、ネットワークインターフェース970を制御して通常にオブジェクト及び/又はライブネステストモデルに対するアップデートを確認してもよいし、それに対応するニューラルネットワークのアップデートを確認してもよい。例えば、ネットワークインターフェース970は、メモリ920又は格納装置940でパラメータ又は係数を要求かつ受信又は格納し得る。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこののうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
200:オブジェクト認識装置
210:イメージ取得部
220:プロセッサ
230:メモリ

Claims (25)

  1. オブジェクト認識方法において、
    入力イメージのオブジェクトの認識に成功した後に前記入力イメージの検証に失敗したことに応答して、前記入力イメージのオブジェクトの認識で使用されたオブジェクトモデルの一部のレイヤによって以前に抽出された基準中間データに基づいて前記オブジェクトモデルを用いて対象イメージを検証するステップと、
    前記対象イメージの検証で前記対象イメージが検証された場合に応答して、前記対象イメージに対する追加検証を行うステップと、
    を含むオブジェクト認識方法。
  2. 前記入力イメージの前記検証及び前記追加検証は、ライブネスモデルを用いて行われる個別ライブネス検証動作である、請求項1に記載のオブジェクト認識方法。
  3. 前記入力イメージの前記オブジェクトの認識は登録基盤認識であり、
    前記対象イメージの前記検証で前記対象イメージが検証されると、前記対象イメージの識別は、前記対象イメージの登録基盤認識を実行せずに行われる、請求項1又は2に記載のオブジェクト認識方法。
  4. 前記対象イメージの検証に失敗すると、前記対象イメージの登録基盤認識が行われる、請求項3に記載のオブジェクト認識方法。
  5. 前記入力イメージの前記オブジェクトの認識は登録基盤認識であり、
    前記対象イメージの前記検証で前記対象イメージが検証されると、前記対象イメージの前記追加検証は、前記対象イメージの登録基盤認識を実行せずに行われる、請求項1又は2に記載のオブジェクト認識方法。
  6. 前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記基準中間データを用いて、前記対象イメージが指示するオブジェクトと前記入力イメージが指示するオブジェクトとが同一であるか否かを決定するステップを含む、請求項1−5のうちの何れか一項に記載のオブジェクト認識方法。
  7. 前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルの前記一部のレイヤと同じレイヤの中間性を有する前記対象イメージの前記検証で使用された前記オブジェクトモデルの一部のレイヤで、前記対象イメージの前記検証で使用された前記オブジェクトモデルの前記一部のレイヤによって抽出された対象中間データが前記基準中間データにマッチングするかを判断するステップを含む、請求項1に記載のオブジェクト認識方法。
  8. 前記対象中間データが前記基準中間データにマッチングするかを判断するステップは、
    前記対象中間データ及び前記基準中間データ間のマッチングスコアを算出するステップと、
    前記マッチングスコアが予め決定された閾値を超過する場合に応答して、前記対象イメージが前記入力イメージと同じオブジェクトを含むものと決定するステップと、
    を含む、請求項7に記載のオブジェクト認識方法。
  9. 前記追加検証を行うステップは、前記対象イメージに含まれたオブジェクトが生体であるかを指示する決定された十分なライブネス特性を、前記対象イメージが有するか否かを検証するステップを含む、請求項1−8のうちの何れか一項に記載のオブジェクト認識方法。
  10. 前記決定された十分なライブネス特性を前記対象イメージが有するか否かを検証するステップは、
    ライブネスモデルを用いて、前記対象イメージに対するライブネススコアを算出するステップと、
    前記ライブネススコアが予め決定されたライブネス閾値を超過する場合に応答して、前記対象イメージが前記十分なライブネス特性を有するものと決定するステップと、
    を含む、請求項9に記載のオブジェクト認識方法。
  11. オブジェクトイメージの選択フレームである前記対象イメージ、及び前記入力イメージを有する複数のフレームから構成される前記オブジェクトイメージを取得するステップと、
    前記入力イメージの前記オブジェクトの認識を行うステップと、
    をさらに含む、請求項1−10のうちの何れか一項に記載のオブジェクト認識方法。
  12. 前記入力イメージの前記オブジェクトの認識の成功に応答して、前記入力イメージに対して前記検証を行うステップをさらに含む、請求項11に記載のオブジェクト認識方法。
  13. 前記入力イメージの前記オブジェクトの認識を行うステップは、
    前記入力イメージの前記オブジェクトの認識で前記オブジェクトモデルの使用を介して、前記入力イメージから基準出力データを抽出するステップと、
    前記基準出力データにマッチングする登録データが登録データベースに存在するとの決定に応答して、前記入力イメージが識別されたと決定するステップと、
    を含む、請求項11に記載のオブジェクト認識方法。
  14. 前記入力イメージが識別されたと決定するステップは、
    前記基準出力データと前記登録データとの間のマッチングスコアを算出するステップと、
    前記マッチングスコアが出力閾値を超過する場合に応答して、前記入力イメージのオブジェクトが前記登録データのオブジェクトと同じものと決定するステップと、
    を含む、請求項13に記載のオブジェクト認識方法。
  15. 前記入力イメージの前記オブジェクトの認識の実行の間に、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルの前記一部のレイヤによって、抽出された基準中間データを格納するステップを含む、請求項11に記載のオブジェクト認識方法。
  16. 前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、
    前記対象イメージの前記検証の失敗に応答して、前記対象イメージの前記検証で使用された前記オブジェクトモデルをさらに使用する前記対象イメージのオブジェクトの認識の完了の結果として、前記対象イメージに対する対象出力データを算出するステップと、
    前記算出された対象出力データにマッチングする登録データが登録データベースに存在するとの決定に応答して、前記対象イメージが識別されたと決定するステップと、
    を含む、請求項1−5のうちの何れか一項に記載のオブジェクト認識方法。
  17. 前記算出された対象出力データが前記登録データベースで登録データにマッチングしないとの決定に応答して、新しいオブジェクトイメージを取得して前記新しいオブジェクトイメージの該当の入力イメージのオブジェクトの認識を行うステップをさらに含む、請求項16に記載のオブジェクト認識方法。
  18. 前記対象イメージ及び前記入力イメージは、オブジェクトイメージの選択フレームであり、
    前記基準中間データを用いて、前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記入力イメージの次のフレームを前記対象イメージとして選択するステップを含む、請求項1−17のうちの何れか一項に記載のオブジェクト認識方法。
  19. 前記基準中間データを用いて前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記基準中間データに対する前記対象イメージの前記検証に使用された前記オブジェクトモデルを構成する総n個のレイヤのうちm番目のレイヤに基づいて、前記対象イメージから抽出された対象中間データと、前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルの前記m番目のレイヤによって前記入力イメージから抽出された基準中間データとを比較するステップを含む、請求項1−5のうちの何れか一項に記載のオブジェクト認識方法。
  20. 前記入力イメージ及び前記対象イメージが取得された一連のフレームを含むオブジェクトイメージ、対象イメージ、又は、入力イメージの分析に基づいて整数mを選択するステップをさらに含む、請求項19に記載のオブジェクト認識方法。
  21. 前記入力イメージの前記オブジェクトの認識で使用された前記オブジェクトモデルによって、前記入力イメージから抽出された基準出力データ及び予め決定された登録データ間のマッチングスコアが出力閾値を超過するとの決定に応答して、前記入力イメージに対する認識が成功したと決定するステップをさらに含み、
    前記基準中間データを用いて、前記入力イメージと他のフレームに対応する対象イメージを検証するステップは、前記基準中間データ及び前記対象イメージから前記対象イメージの前記検証で使用された前記オブジェクトモデルによって抽出された対象中間データ間の更なるマッチングスコアが中間閾値を超過するか否かを判断するステップを含み、
    前記中間閾値は前記出力閾値よりも大きい、請求項1に記載のオブジェクト認識方法。
  22. 以前に取得されたオブジェクトイメージに含まれる複数のフレームのうち、個別フレームに対応する前記入力イメージ及び前記対象イメージに対して、前記入力イメージの前記オブジェクト認識が失敗する場合に応答して、新しいオブジェクトイメージを取得するステップをさらに含む、請求項1に記載のオブジェクト認識方法。
  23. 前記対象イメージに対する追加検証が失敗する場合に応答して、前記他の対象イメージの該当検証で使用された前記オブジェクトモデルの一部のレイヤに基づいて、他の対象イメージの対象中間データを抽出するステップであって、前記他の対象イメージは、前記対象イメージの次のフレームに対応するイメージである、ステップと、
    前記他の対象イメージの前記該当検証は、前記対象中間データ及び前記基準中間データに基づいて前記他の対象イメージを検証する動作を含む、請求項1に記載のオブジェクト認識方法。
  24. 請求項1−23のうち何れか一項に記載のオブジェクト認識方法をオブジェクト認識装置のコンピュータに実行させるための1つ以上の命令語を含むコンピュータプログラム。
  25. オブジェクト認識装置において、
    オブジェクトモデルを格納するメモリと、
    入力イメージのオブジェクトの認識に成功した後に前記入力イメージの検証が失敗した場合に応答して、前記入力イメージのオブジェクトの認識で使用された前記オブジェクトモデルの一部のレイヤによって以前に抽出された基準中間データに基づいて、前記オブジェクトモデルを用いて対象イメージを検証し、前記対象イメージの検証で前記対象イメージが検証された場合に応答して、前記対象イメージの追加検証を行うプロセッサと、
    を含むオブジェクト認識装置。
JP2018230088A 2017-12-15 2018-12-07 オブジェクト認識装置及び方法 Active JP7163159B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170173573A KR102374747B1 (ko) 2017-12-15 2017-12-15 객체를 인식하는 장치 및 방법
KR10-2017-0173573 2017-12-15

Publications (2)

Publication Number Publication Date
JP2019109885A true JP2019109885A (ja) 2019-07-04
JP7163159B2 JP7163159B2 (ja) 2022-10-31

Family

ID=64606835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018230088A Active JP7163159B2 (ja) 2017-12-15 2018-12-07 オブジェクト認識装置及び方法

Country Status (5)

Country Link
US (2) US10853678B2 (ja)
EP (1) EP3499412B1 (ja)
JP (1) JP7163159B2 (ja)
KR (1) KR102374747B1 (ja)
CN (1) CN109934083A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255493A1 (ja) * 2021-06-04 2022-12-08 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像方法および撮像プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657362B2 (en) * 2015-06-30 2020-05-19 Nec Corporation Of America Facial recognition system
KR102374747B1 (ko) * 2017-12-15 2022-03-15 삼성전자주식회사 객체를 인식하는 장치 및 방법
JP6806107B2 (ja) * 2018-03-20 2021-01-06 日本電気株式会社 障害物認識支援装置、障害物認識支援方法、プログラム
EP3751580B1 (en) * 2019-06-11 2024-04-03 Siemens Healthineers AG Hemodynamic analysis of vessels using recurrent neural network
US11455531B2 (en) * 2019-10-15 2022-09-27 Siemens Aktiengesellschaft Trustworthy predictions using deep neural networks based on adversarial calibration
CN111062883B (zh) * 2019-12-04 2022-10-18 RealMe重庆移动通信有限公司 图像处理方法及装置、计算机可读介质和电子设备
US11462050B2 (en) * 2019-12-19 2022-10-04 Certify Global Inc. Systems and methods of liveness determination
CN111462083B (zh) * 2020-03-31 2023-05-02 北京东软医疗设备有限公司 图像处理方法、装置、电子设备及存储介质
KR20220018469A (ko) * 2020-08-01 2022-02-15 센스타임 인터내셔널 피티이. 리미티드. 목표 대상 인식 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017007401A1 (en) * 2015-07-03 2017-01-12 Fingerprint Cards Ab Apparatus and computer-implemented method for fingerprint based authentication
JP2017091522A (ja) * 2015-11-04 2017-05-25 三星電子株式会社Samsung Electronics Co.,Ltd. 認証方法、認証装置及び学習方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100715323B1 (ko) 2004-10-11 2007-05-07 (주)버뮤다정보기술 얼굴인식기술을 이용한 전자금융 부정 거래 방지 장치 및방법
JP5045344B2 (ja) * 2007-09-28 2012-10-10 ソニー株式会社 登録装置、登録方法、認証装置及び認証方法
JP5428835B2 (ja) * 2009-12-21 2014-02-26 富士通株式会社 署名装置、署名方法、および署名プログラム
KR101172898B1 (ko) 2010-03-10 2012-08-09 홍익대학교 산학협력단 얼굴 인식 시스템에서의 위조 검출 방법
EP2546782B1 (en) * 2011-07-11 2014-06-25 Accenture Global Services Limited Liveness detection
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
CN102831392B (zh) 2012-07-09 2015-06-24 哈尔滨工业大学 一种远距离虹膜跟踪与采集装置及其方法
KR102057947B1 (ko) * 2013-04-01 2019-12-20 삼성전자주식회사 사용자 인증을 수행하는 디스플레이 장치 및 그 사용자 인증 방법
US9003196B2 (en) * 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
CN103886301B (zh) 2014-03-28 2017-01-18 北京中科奥森数据科技有限公司 一种人脸活体检测方法
SG10201402448RA (en) * 2014-05-19 2015-12-30 Ats Group Ip Holdings Ltd Face recognition using concealed mobile camera
CN104284240B (zh) 2014-09-17 2018-02-02 小米科技有限责任公司 视频浏览方法及装置
KR101676101B1 (ko) * 2014-09-29 2016-11-15 동명대학교산학협력단 동적보상퍼지신경네트워크(dcfnn)를 기반으로 한 얼굴인식 알고리즘
WO2016172923A1 (zh) * 2015-04-30 2016-11-03 北京旷视科技有限公司 视频检测方法、视频检测系统以及计算机程序产品
CN106330837A (zh) 2015-06-30 2017-01-11 阿里巴巴集团控股有限公司 一种可疑网络用户的识别方法和装置
US9996732B2 (en) * 2015-07-20 2018-06-12 International Business Machines Corporation Liveness detector for face verification
US10860887B2 (en) 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
KR102554149B1 (ko) * 2015-11-16 2023-07-12 삼성전자주식회사 오브젝트 인식 방법 및 장치, 인식 모델 학습 방법 및 장치
CN105512632B (zh) * 2015-12-09 2019-04-05 北京旷视科技有限公司 活体检测方法及装置
US10083378B2 (en) * 2015-12-28 2018-09-25 Qualcomm Incorporated Automatic detection of objects in video images
US10102358B2 (en) * 2015-12-29 2018-10-16 Sensory, Incorporated Face-controlled liveness verification
US10762037B2 (en) 2016-03-25 2020-09-01 Hitachi, Ltd Data processing system
KR102483642B1 (ko) * 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN106529571B (zh) * 2016-10-14 2018-04-20 广州视源电子科技股份有限公司 基于神经网络的多层图像特征提取建模、图像识别方法及装置
WO2018079031A1 (ja) * 2016-10-31 2018-05-03 日本電気株式会社 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体
CN106934376B (zh) * 2017-03-15 2019-10-18 成都汇亿诺嘉文化传播有限公司 一种图像识别方法、装置及移动终端
US11010595B2 (en) * 2017-03-23 2021-05-18 Samsung Electronics Co., Ltd. Facial verification method and apparatus
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10679083B2 (en) * 2017-03-27 2020-06-09 Samsung Electronics Co., Ltd. Liveness test method and apparatus
KR102359558B1 (ko) * 2017-03-28 2022-02-09 삼성전자주식회사 얼굴 인증 방법 및 장치
KR102370063B1 (ko) * 2017-03-28 2022-03-04 삼성전자주식회사 얼굴 인증 방법 및 장치
CN108664782B (zh) * 2017-03-28 2023-09-12 三星电子株式会社 面部验证方法和设备
KR102324468B1 (ko) * 2017-03-28 2021-11-10 삼성전자주식회사 얼굴 인증을 위한 장치 및 방법
KR102299847B1 (ko) * 2017-06-26 2021-09-08 삼성전자주식회사 얼굴 인증 방법 및 장치
CN107316029B (zh) * 2017-07-03 2018-11-23 腾讯科技(深圳)有限公司 一种活体验证方法及设备
EP3447684A1 (en) * 2017-08-22 2019-02-27 Eyn Limited Verification method and system
KR102374747B1 (ko) * 2017-12-15 2022-03-15 삼성전자주식회사 객체를 인식하는 장치 및 방법
KR102455633B1 (ko) * 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치
US11023757B2 (en) * 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
CN108764052B (zh) * 2018-04-28 2020-09-11 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017007401A1 (en) * 2015-07-03 2017-01-12 Fingerprint Cards Ab Apparatus and computer-implemented method for fingerprint based authentication
JP2017091522A (ja) * 2015-11-04 2017-05-25 三星電子株式会社Samsung Electronics Co.,Ltd. 認証方法、認証装置及び学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255493A1 (ja) * 2021-06-04 2022-12-08 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像方法および撮像プログラム

Also Published As

Publication number Publication date
US20210056332A1 (en) 2021-02-25
KR20190072314A (ko) 2019-06-25
CN109934083A (zh) 2019-06-25
EP3499412B1 (en) 2023-02-01
JP7163159B2 (ja) 2022-10-31
EP3499412A1 (en) 2019-06-19
US20190188510A1 (en) 2019-06-20
US11423702B2 (en) 2022-08-23
US10853678B2 (en) 2020-12-01
KR102374747B1 (ko) 2022-03-15

Similar Documents

Publication Publication Date Title
JP7163159B2 (ja) オブジェクト認識装置及び方法
EP3382603B1 (en) Face verification method and apparatus
KR102608470B1 (ko) 데이터 인식 장치 및 방법과 트레이닝 장치 및 방법
US20220044009A1 (en) Face verifying method and apparatus
CN108629168B (zh) 脸部验证方法、设备以及计算设备
US10387714B2 (en) Face verifying method and apparatus
KR102486699B1 (ko) 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치
KR102564855B1 (ko) 표정 변화에 강인한 객체 및 표정 인식 장치 및 방법, 객체 및 표정 트레이닝 장치 및 방법
US20200184055A1 (en) Authentication based on correlation of multiple pulse signals
US20180157892A1 (en) Eye detection method and apparatus
US20160171300A1 (en) Authentication apparatus and method
US20200218793A1 (en) Passive identification of a kiosk user
KR102101221B1 (ko) 콘볼루션 신경망을 이용한 걸음걸이 기반 신원 인식 장치 및 방법
CN111095246A (zh) 用于认证用户的方法和电子设备
KR20190070179A (ko) 사용자 등록 장치 및 방법
JP2004118731A (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
US20220188598A1 (en) System, Method, and Computer Program Product for Evolutionary Learning in Verification Template Matching During Biometric Authentication
CN111316266A (zh) 一种用于改善由通信设备所执行的用户认证的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150