JP6629513B2 - ライブネス検査方法と装置、及び映像処理方法と装置 - Google Patents

ライブネス検査方法と装置、及び映像処理方法と装置 Download PDF

Info

Publication number
JP6629513B2
JP6629513B2 JP2015056767A JP2015056767A JP6629513B2 JP 6629513 B2 JP6629513 B2 JP 6629513B2 JP 2015056767 A JP2015056767 A JP 2015056767A JP 2015056767 A JP2015056767 A JP 2015056767A JP 6629513 B2 JP6629513 B2 JP 6629513B2
Authority
JP
Japan
Prior art keywords
image
liveness
diffusion
input image
inspection method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015056767A
Other languages
English (en)
Other versions
JP2015215876A (ja
Inventor
▲うぉん▼ 俊 金
▲うぉん▼ 俊 金
成 住 徐
成 住 徐
在 濬 韓
在 濬 韓
黄 元 俊
元 俊 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140077333A external-priority patent/KR102257897B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015215876A publication Critical patent/JP2015215876A/ja
Application granted granted Critical
Publication of JP6629513B2 publication Critical patent/JP6629513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明に係る以下の実施形態は、ライブネス検査方法と装置、及び映像処理方法と装置に関する。
生体認識技術は、ユーザ個々人に固有な生体特性を用いて人を判別することができる。その中でも顔認識システムは、特定のセンサに接触することなく自然に顔に基づいてユーザを認識することができる。
しかし、顔認識システムは、登録された対象の顔写真を用いた偽装攻撃に脆弱であるという短所がある。
本実施形態は、入力映像に含まれたオブジェクト(例えば、顔)のイメージが平面的な特性又は3次元構造的な特性を有するか否かを判断することによって、当該オブジェクトのライブネス(liveness)を検査する技術を提供する。
また、本実施形態は、照明の変化に堅牢な映像を生成することによって、顔認識及び/又はユーザ認証の信頼度を向上したり、顔認識及び/又はユーザ認証の演算の複雑度を低減させる技術を提供する。
一つの実施形態に係るライブネス検査方法は、受信された入力映像に含まれたオブジェクトのイメージが平面を示す平面的な特性又は3次元構造を示す3次元構造的な特性を有するか否かに基づいて、前記オブジェクトのライブネスを検査するステップを含む。ここで、前記入力映像は、単一映像であってもよい。前記入力映像に含まれたオブジェクトのイメージは、顔に該当してもよい。
前記ライブネス検査方法は、前記オブジェクトに対応する複数のピクセルに含まれた光エネルギーの分布に基づいて、前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断するステップをさらに含んでもよい。前記ライブネス検査方法は、前記オブジェクトに対応する複数のピクセルに含まれた光エネルギーが均一に分布した程度に基づいて、前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断するステップをさらに含んでもよい。
前記ライブネス検査方法は、前記オブジェクトに対応する複数のピクセルの拡散速度に関する統計的情報に基づいて、前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断するステップをさらに含んでもよい。
前記ライブネス検査方法は、拡散方程式に基づいて前記複数のピクセル値を繰り返し更新するステップと、反復的な更新前後のピクセル値の差に基づいて、前記複数のピクセルの拡散速度を算出するステップをさらに含んでもよい。
前記拡散速度に関する統計的情報は、前記複数のピクセルのうち予め決定した第1閾値以上の拡散速度に対応するピクセルの数と、前記第1閾値以上の拡散速度に対応するピクセルの分布と、前記拡散速度の大きさに基づいて抽出された第1スケールの領域に含まれた雑音成分の量と、前記拡散速度の平均と、前記拡散速度の標準偏差と、前記拡散速度に基づいたフィルタ応答のうち少なくとも1つを含んでもよい。
前記ライブネス検査方法では、前記オブジェクトのライブネスを検査するステップは、前記オブジェクトが前記平面的な特性を有すると判断される場合、検査失敗に対応する信号を出力するステップと、前記オブジェクトが前記3次元構造的な特性を有すると判断される場合、検査成功に対応する信号を出力するステップのうち少なくとも1つを含んでもよい。
他の側面に係るライブネス検査方法は、フィルタリングされた映像を生成するためにオブジェクトのイメージを含む受信された映像をフィルタリングするステップと、前記受信された映像と前記フィルタリングされた映像に含まれたオブジェクトのイメージに対応するピクセル値の変化量を決定するステップと、前記変化量に基づいて前記オブジェクトのライブネスを検査するステップとを含んでもよい。
更なる一側面に係る映像処理方法は、照明成分及び非照明成分を含む第1映像を受信するステップと、前記照明成分に関する第2映像を生成するために、前記第1映像に含まれた複数のピクセルをフィルタリングするステップと、前記第1映像及び前記第2映像に基づいて前記非照明成分に関する第3映像を生成するステップとを含む。
更なる一側面に係るライブネス検査装置は、受信された入力映像に含まれたオブジェクトのイメージが平面を示す平面的な特性又は3次元構造を示す3次元構造的な特性を有するか否かに基づいて、前記オブジェクトのライブネスを検査する検査部を含む。
前記検査部は、拡散映像を生成するために前記受信された入力映像を拡散し、前記受信された入力映像内のピクセル値と前記拡散映像内のピクセル値との間の差に基づいて、前記オブジェクトのイメージに対応する複数のピクセルの拡散速度を算出し、前記算出された拡散速度に基づいて前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断してもよい。
更なる一側面に係る映像処理装置は、照明成分及び非照明成分を含む第1映像を受信する受信回路と、前記第1映像に含まれた複数のピクセルをフィルタリングすることによって、前記照明成分に関する第2映像を生成するフィルタリング回路と、前記第1映像及び前記第2映像に基づいて前記非照明成分に関する第3映像を生成する生成回路とを含む。
本発明によれば、入力映像に含まれたオブジェクト(例えば、顔)のイメージが平面的な特性又は3次元構造的な特性を有するか否かを判断することによって、当該オブジェクトのライブネスを検査するすることができる。
また、本発明によれば、照明の変化に堅牢な映像を生成することによって、顔認識及び/又はユーザ認証の信頼度を向上したり、顔認識及び/又はユーザ認証の演算の複雑度を低減させることができる。
一つの実施形態に係るライブネス検査を説明する図である。 一つの実施形態に係るライブネス検査を説明する図である。 一つの実施形態に係るライブネス検査の原理を説明する図である。 一つの実施形態に係るライブネス検査装置を示すブロック図である。 一つの実施形態に係る拡散動作を説明する図である。 一つの実施形態に係るSRマップを説明する図である。 他の実施形態に係るライブネス検査装置を示すブロック図である。 一つの実施形態に係る映像処理を説明する図である。 一つの実施形態に係る照明によって変化する入力映像を説明する図である。 一つの実施形態に係る映像処理装置を示すブロック図である。 一つの実施形態に係るライブネス検査方法を示した動作フローチャートである。 一つの実施形態に係る映像処理方法を示した動作フローチャートである。 他の実施形態に係る映像処理方法を示した動作フローチャートである。 一つの実施形態に係る電子システムを示すブロック図である。
以下、実施形態について添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。下記で説明する実施形態は、スマートフォン、スマートTV、スマートホーム、スマートカー、監視システムなどの様々な分野に適用されてもよい。例えば、本実施形態は、スマートフォンなどのログインのために入力映像のライブネス(liveness)を検査したり、ユーザを認証する技術に使用されてもよい。また、本実施形態は、公の場所又はセキュアな場所での出入り規制及び監視のために入力映像のライブネスを検査したり、ユーザを認証する技術に使用されてもよい。
一つの実施形態に係るライブネス検査
図1A及び図1Bは、一つの実施形態に係るライブネス検査を説明する図である。ライブネス検査は、入力映像に含まれたオブジェクトが生きているか(live)否かを検査する方式であって、例えば、ライブネス検査は、入力映像に含まれた顔が実際の顔などのライブオブジェクト(live object)であるか又は写真などフェイクオブジェクト(fake object)であるか否かを判断してもよい。ライブネス検査によって写真偽造又は写真変調などにより他人の顔認証を試みる事例などを効果的に防止することができる。
図1A及び図1Bを参照すると、一つの実施形態に係るライブネス検査装置110は、ユーザ120の顔が含まれた入力映像を受信し、受信された入力映像に含まれた顔のライブネスを検査してもよい。ライブネス検査装置110は、モバイルフォン、スマートフォン、PDA、タブレットコンピュータ、ラップトップコンピュータなどの同じモバイル機器であってもよい。または、ライブネス検査装置110は、パーソナルコンピュータなどのコンピュータ装置、テレビなどの電子製品、または、出入り口コントロールなどのためのセキュリティ装置であってもよい。ライブネス検査装置110は、ユーザ120の顔を撮影するイメージセンサ115から入力映像を受信してもよい。イメージセンサ115は、ライブネス検査装置110の一部であってもよい。
一例として、ユーザ120の実際の顔が撮影されることによって入力映像が生成されてもよい。この場合、ライブネス検査装置110は、入力映像に含まれた顔がライブオブジェクトであると判断する。ライブオブジェクトは、3次元構造を有する実際のオブジェクトであってもよい。ライブネス検査装置110は、入力映像に含まれた顔がライブオブジェクトであることを示す信号を出力してもよい。例えば、ライブネス検査装置110は、入力映像に含まれた顔が実際に3次元構造を有するライブオブジェクトに該当するか否かを検査し、入力映像に含まれた顔がライブオブジェクトに該当する検査結果に応じて検査成功に対応する信号を出力してもよい。
他の例として、ユーザ120の実際の顔ではないディスプレイ媒体125に表示された顔が撮影されることによって入力映像が生成されてもよい。ディスプレイ媒体125は、顔などのオブジェクトを表示する媒体であって、例えば、ユーザの顔が印刷された紙、ユーザの顔が表示される電子装置などを含んでもよい。一例として、ユーザ120は、ディスプレイ媒体125に表示される他人の顔をイメージセンサ115に向かうようにすることで、他人のアカウントでログインを試みることがある。図1Bにおいて、ディスプレイ媒体125に表示される顔が点線のように表示されている理由は、ディスプレイ媒体125に表示される顔がユーザ120の方向ではないイメージセンサ115の方向に向かっていることを示すためである。この場合、ライブネス検査装置110は、入力映像に含まれた顔がフェイクオブジェクトであると判断する。フェイクオブジェクトはオブジェクトの2次元表現である。
ライブネス検査装置110は、入力映像に含まれた顔がフェイクオブジェクトに該当することを示す信号を出力してもよい。例えば、ライブネス検査装置110は、入力映像に含まれた顔がオブジェクトの2次元表現のフェイクオブジェクトに該当するか否かを検査し、入力映像に含まれた顔がフェイクオブジェクトに該当する検査結果に応じて、検査失敗に対応する信号を出力してもよい。
ライブネス検査装置110は、入力映像から顔領域を検出してもよい。この場合、本実施形態は、入力映像から検出された顔領域に適用されてもよい。
図2は、一つの実施形態に係るライブネス検査の原理を説明する図である。一つの実施形態に係るライブネス検査装置は、入力映像に含まれたオブジェクトが平面(flat surface)的特性又は3次元構造(3−dimentional structure)的特性を有するか否かに基づいて、オブジェクトのライブネスを検査してもよい。
図2を参照すると、ライブネス検査装置は、媒体210に表示された顔211とユーザの実際の顔220とを区別している。媒体210に表示された顔211は2次元平面である。媒体210に表示された顔211が撮影されることによって入力映像が生成される場合、入力映像に含まれたオブジェクトは平面的な特性を有してもよい。例えば、媒体210の表面は2次元平面であるため、媒体210に表示された顔211に入射される光215は、媒体210の表面から均一に反射する。そのため、入力映像のオブジェクトに光エネルギーが均一に分布する。若干の屈曲は有するものの、全般的には平面に近い曲面ディスプレイの表面も2次元平面に当該する。
一方、ユーザの実際の顔220は、3次元構造である。ユーザの実際の顔220が撮影されることによって入力映像が生成される場合、入力映像に含まれたオブジェクトは3次元構造の特性を有する。例えば、ユーザの実際の顔220は様々な屈曲を有する3次元構造であるため、ユーザの実際の顔220に入射される光225は、ユーザの実際の顔220の表面から不均一に反射する。そのため、入力映像のオブジェクトに光エネルギーが不均一に分布してもよい。
ライブネス検査装置は、入力映像のオブジェクトに含まれた光エネルギーの分布に基づいてオブジェクトのライブネスを検査してもよい。ライブネス検査装置は、入力映像のオブジェクトに含まれた光エネルギーの分布を分析することによって、入力映像のオブジェクトが平面的な特性又は3次元構造的な特性を有するか否かを判断してもよい。
一例として、媒体210に表示された顔211が撮影されることによって、入力映像が生成されてもよい。ライブネス検査装置は、入力映像の顔に含まれた光エネルギーの分布を分析することによって、入力映像の顔が平面的な特性を有すると判断してもよい。ライブネス検査装置は、入力映像の顔がフェイクオブジェクトであると判断して、検査失敗に対応する信号を出力してもよい。
他の例として、ユーザの実際の顔220が撮影されることによって入力映像が生成されてもよい。ライブネス検査装置は、入力映像の顔に含まれた光エネルギーの分布を分析することによって、入力映像の顔が3次元構造的な特性を有すると判断してもよい。ライブネス検査装置は、入力映像の顔がライブオブジェクトであると判断して、検査成功に対応する信号を出力してもよい。
ライブネス検査装置は、入力映像のオブジェクトに含まれた光エネルギーが均一に分布した程度に基づいてオブジェクトのライブネスを判断してもよい。一例として、媒体210に表示された顔211に入射される光は均一に反射するため、入力映像の顔に含まれる光エネルギーが均一に分布する。ライブネス検査装置は、入力映像の顔に含まれた光エネルギーが均一に分布した程度が予め決定した閾値の均一度以上である場合、入力映像の顔が平面的な特性を有すると判断してもよい。ライブネス検査装置は、入力映像の顔がフェイクオブジェクトであると判断し、検査失敗に対応する信号を出力してもよい。
他の例として、ユーザの実際の顔220に入射される光は不均一に反射するため、入力映像の顔に含まれる光エネルギーが不均一に分布してもよい。ライブネス検査装置は、入力映像の顔に含まれた光エネルギーが均一に分布した程度が予め決定した閾値の均一度未満である場合、入力映像の顔が3次元構造的な特性を有すると判断してもよい。ライブネス検査装置は、入力映像の顔がライブオブジェクトであると判断し、検査成功に対応する信号を出力してもよい。例えば、閾値の均一度は、顔領域に該当する映像の部分(例えば、一般的には顔領域に該当する部分をバウンドボックスに表示した領域)内のピクセル個数の50%(又はそれ以上)に該当する値であってもよい。
ライブネス検査装置は、単一入力映像を用いてオブジェクトのライブネスを検査してもよい。ここで、単一入力映像は、単一写真、単一イメージ、または、単一フレームの静止画であってもよい。例えば、ライブネス検査装置は、単一入力映像に含まれたオブジェクトが平面的な特性又は3次元構造的な特性を有するか否かを判断することによって、オブジェクトのライブネスを検査してもよい。ライブネス検査装置は、単一入力映像のオブジェクトに含まれた光エネルギーが均一に分布した程度を算出することによって、オブジェクトのライブネスを検査することができる。
図3は、一つの実施形態に係るライブネス検査装置を示すブロック図である。図3を参照すると、一つの実施形態に係るライブネス検査装置310は、受信部311と検査部312を含む。受信部311は入力映像を受信する。受信部311は、イメージセンサから生成された入力映像を受信してもよい。受信部311は、イメージセンサと有線又は無線で接続したり、ネットワークを介して接続してもよい。受信部311は、メインメモリ、キャッシュメモリ、ハードディスクドライブ、固体ドライブ、フラッシュメモリデバイス、ネットワークドライブなどの格納装置から入力映像を受信してもよい。
検査部312は、入力映像に含まれたオブジェクトのライブネスを検査する。例えば、検査部312は、入力映像に含まれたオブジェクトが平面的な特性又は3次元構造的な特性を有するか否かを判断することによって、オブジェクトのライブネスを検査してもよい。一例として、入力映像に含まれたオブジェクトが少なくとも1つの3次元構造的な特性を有すると判断される場合、検査部312は検査成功であると判断し、入力映像に含まれたオブジェクトが少なくとも1つの平面的な特性を有すると判断される場合、検査部312は検査失敗と判断してもよい。
検査部312は、入力映像のオブジェクトに含まれた光エネルギーの分布を分析することによって、オブジェクトのライブネスを検査してもよい。例えば、検査部312は、入力映像のオブジェクトに含まれた光エネルギーが均一に分布した程度を算出することによって、オブジェクトのライブネスを検査してもよい。検査部312は、光エネルギーが均一に分布した情報を閾値と比較してもよい。もし、光エネルギーが均一に分布した情報が閾値以上であれば、入力映像に含まれたオブジェクトは2次元平面であると判断してもよい。一方、もし、光エネルギーが均一に分布した情報が閾値未満であれば、入力映像に含まれたオブジェクトは3次元構造であると判断してもよい。
実施形態に係る検査部312は、入力映像に含まれたオブジェクトに対応する複数のピクセルに含まれた光エネルギーの分布を分析するために、入力映像に含まれたオブジェクトに対応する複数のピクセルをフィルタリングしてもよい。例えば、検査部312は、拡散プロセスを用いて複数のピクセルをフィルタリングしてもよい。検査部312は、入力映像のオブジェクトに対応する複数のピクセルに含まれた光エネルギーの分布を分析するため、入力映像のオブジェクトに対応する複数のピクセルを拡散できる。拡散動作に関する詳細な事項は、図4を参照して後述する。
以下、拡散プロセスに関して具体的に説明するが、適切なフィルタリングプロセスが実施形態に適用されてもよい。例えば、イメージ内のピクセルをブラー(blurring)及び/又はスムージング(smoothing)するフィルタリングプロセスを実施形態に適用してもよい。または、バイラテラルフィルタ(Bilateral Filtering)が実施形態に適用されてもよい。バイラテラルフィルタは、映像処理分野の当該の技術者には広く知られた方法であるため、詳細な説明は省略する。また、エッジ領域は格納されながらも非エッジ領域はブラーされる様々なフィルタリングプロセスが実施形態に適用されてもよい。
図4は、一つの実施形態に係る拡散動作を説明する図である。一つの実施形態に係るライブネス検査装置は、入力映像のオブジェクトに対応する複数のピクセルを拡散させてもよい。ライブネス検査装置は、拡散方程式(diffusion equation)を用いて複数のピクセル値を繰り返し更新してもよい。例えば、ライブネス検査装置は、数式(1)を用いて入力映像のオブジェクトに対応する複数のピクセルを拡散してもよい。
ここで、kは反復回数で、uはk番目の反復後のピクセル値であり、uk+1はk+1番目の反復後のピクセル値である。uは入力映像のピクセル値であってもよい。∇は勾配演算子(gradient operator)であり、div()は発散関数(divergence function)である。
d()は、拡散関数(diffusivity function)である。拡散関数は予め決定されてもよい。例えば、ライブネス検査装置は、拡散関数を数式(2)のように定義してもよい。
ここで、βは小さな正数(small positive number)であってもよい。例えば、β=10−6程度で極めて小さい値を用いてもよい。数式(2)のように定義される拡散関数を使用する場合、拡散動作中にオブジェクトの境界が円滑に格納される。数式(2)のように拡散関数が∇uの関数である場合、拡散方程式は非線形であってもよい。
ライブネス検査装置は、数式(1)を解くために、加算演算子分割(additive operator splitting:AOS)方式を適用してもよい。例えば、ライブネス検査装置は、数式(3)を用いて入力映像のオブジェクトに対応する複数のピクセルを拡散してもよい。
ここで、Iは入力映像のピクセル値であり、Aは水平方向への拡散マトリックスであり、Aは垂直方向への拡散マトリックスである。τはタイムステップであってもよい。最終の反復回数Lとタイムステップτは予め決定されてもよい。一般に、タイムステップτが小さく設定され、最終の反復回数Lが大きく設定される場合、最終的に拡散されたピクセル値uの信頼度は向上する。
ライブネス検査装置は、数式(1)を解くために加算演算子分割方式を用いることによって、最終の反復回数Lを減少させ得る。加算演算子分割方式を用いる場合、任意の大きさのタイムステップτを用いても最終的に拡散されたピクセル値uの信頼度が高いためである。ライブネス検査装置は、拡散方程式を解くために加算演算子分割方式を用いることによって、拡散動作のための演算の効率性を向上し得る。ライブネス検査装置は、少ないプロセッサリソース及び少ないメモリリソースを用いて拡散動作を行うことができる。
ライブネス検査装置は、拡散方程式を解くために加算演算子分割方式を用いることによって、入力映像のテクスチャを効果的に格納できる。ライブネス検査装置は、低照度及び逆光環境でも入力映像のオリジナルテクスチャを効果的に格納できる。
図4を参照すると、映像410は入力映像であり、映像420は中間拡散映像であり、映像430は最終拡散映像である。例えば、最終の反復回数Lは20に設定されてもよい。映像420は、入力映像に含まれたピクセル値が数式(3)によって5回繰り返して更新された結果、導き出された映像であってもよい。映像430は、入力映像に含まれたピクセル値が数式(3)によって20回繰り返して更新された結果、導き出された映像であってもよい。
ライブネス検査装置は、入力映像に含まれたオブジェクトが平面的な特性又は3次元構造的な特性を有するか否かを判断するために拡散速度を用いてもよい。拡散速度はそれぞれのピクセル値が拡散する速度であり、例えば、拡散速度は数式(4)のように定義されてもよい。
ここで、s(x、y)は(x、y)座標のピクセルの拡散速度であり、u(x、y)は入力映像に含まれた(x、y)座標のピクセル値であり、u(x、y)は最終拡散映像に含まれた(x、y)座標のピクセル値である。拡散前後のピクセル値の差が大きいほど拡散速度は大きく算出され、拡散前後のピクセル値の差が小さいほど拡散速度は小さく算出されてもよい。
より包括的に、ライブネス検査装置は、前述したフィルタリングプロセスのL回反復後に得られる映像のピクセル値の変化量に基づいて、入力映像に含まれたオブジェクトが2次元平面又は3次元構造に該当するか否かを判断してもよい。
一つの実施形態によると、顔映像は、スモールスケールの領域とラージスケールの領域とに分類してもよい。例えば、スモールスケールの領域は目、眉毛、鼻、口などの特徴点又は特徴線が存在する領域であってもよい。ラージスケールの領域は額、頬などの皮膚が広く占めている領域であってもよい。
スモールスケールの領域に属するピクセルの拡散速度は、ラージスケールの領域に属するピクセルの拡散速度よりも大きい。例えば、映像410のメガネフレームに該当するピクセル411は皮膚に該当する周辺ピクセルと互いに異なるため、拡散によって値が大きく変わる。映像410のピクセル411の値は拡散によって、映像430のピクセル431の値に更新されてもよい。一方、映像410の頬に該当するピクセル412は周辺ピクセルと類似するため、拡散によって変わる値は小さい。映像410のピクセル412の値は、拡散によって映像430のピクセル432の値に更新されてもよい。
拡散速度の差異は、映像内の光エネルギーの分布に基づくものであってもよい。例えば、映像内の光エネルギーが均一に分布する場合、拡散速度が小さく算出されてもよい。光エネルギーが均一に分布する場合、周辺ピクセル間のピクセル値が類似する可能性が高いためである。一方、映像内の光エネルギーが不均一に分布する場合、拡散速度が大きく算出されてもよい。光エネルギーが不均一に分布する場合、周辺ピクセル間のピクセル値が互いに異なる可能性が高いためである。
ライブネス検査装置は、拡散速度に関する統計的情報に基づいて映像内の光エネルギーが均一に分布する程度を算出してもよい。ライブネス検査装置は、拡散速度に関する統計的情報に基づいて映像内オブジェクトのライブネスを検査してもよい。例えば、ライブネス検査装置は、拡散速度に関する統計的情報を算出するために、数式(5)を用いてスモールスケールの領域を抽出してもよい。
ここで、SR(x、y)は(x、y)座標のピクセルがスモールスケールの領域に属するか否かを示す指示子である。例えば、SR(x、y)の値が1である場合、(x、y)座標のピクセルはスモールスケールの領域に属し、SR(x、y)の値が0である場合、(x、y)座標のピクセルはスモールスケールの領域に属さない。
SR(x、y)の値は拡散速度に基づいて決定されてもよい。例えば、s(x、y)が予め決定した閾値よりも大きければ、SR(x、y)の値は1に決定され、その他の場合、SR(x、y)の値は0に決定されてもよい。予め決定した閾値は、全体映像の平均μと全体映像の標準偏差σに基づいて設定されてもよい。全体映像の平均μは、全体映像に含まれたピクセルの拡散速度の平均であり、全体映像の標準偏差σは、全体映像に含まれたピクセルの拡散速度の標準偏差であってもよい。
以下、(x、y)座標のピクセル値がSR(x、y)である映像はSRマップ(SR map)と称されてもよい。SRマップに含まれたそれぞれのピクセルは0又は1の値を有するため、SRマップは2進化マップと称されてもよい。SRマップは、様々な照明環境で顔内の基底構造(underlying structure)を効果的に表現することができる。
図5は、一つの実施形態に係るSRマップを説明する図である。図5を参照すると、一つの実施形態によりユーザの顔が表示された媒体が撮影された場合のSRマップ510と、同一ユーザの実際の顔が撮影された場合のSRマップ520は互いに異なる。SRマップ510とSRマップ520で黒い色に表示された部分は、SR(x、y)=1に該当するピクセルに当該し、白い色に表示された部分はSR(x、y)=0に該当するピクセルに該当する。この場合、SRマップ510とSRマップ520で、黒い色に表示された部分は拡散速度が相対的に早い部分であり、白い色と表示された部分は拡散速度が相対的に遅い部分である。
ライブネス検査装置は、SRマップを分析することによって映像内の顔のライブネスを検査する。ライブネス検査装置は、SRマップから様々な特徴を抽出することによって、映像内の顔のライブネスを検査してもよい。
ユーザの実際の顔が撮影された場合、ユーザの実際の顔の屈曲によって様々な光反射が発生してもよい。映像内の光エネルギーが不均一に分布する場合、SRマップにピクセル値が1であるピクセルが多く含まれてもよい。ライブネス検査装置は数式(6)に基づいて映像内の顔のライブネスを判断してもよい。
ここで、N(SR(x、y)=1)はSR(x、y)=1を満足するピクセルの数を示し、ξは閾値であり、ξの値は予め設定されてもよい。ライブネス検査装置は
である場合、映像内の顔がフェイクオブジェクトであると判断してもよい。
また、映像内の光エネルギーが不均一に分布する場合、SRマップに雑音成分が多く含まれてもよい。ライブネス検査装置は、数式(7)に基づいて映像内の顔のライブネスを判断してもよい。
ここで、SR(x、y)はSRマップにメディアンフィルタリング(median filtering)を適用した映像の(x、y)座標のピクセル値である。ξは閾値であり、ξの値は予め設定されてもよい。雑音成分が多いほどSR(x、y)の値とSR(x、y)の値の異なるピクセル数が多くなるため、
である場合、映像内の顔がフェイクオブジェクトであると判断されてもよい。
数式(6)及び数式(7)は例示的な事項であり、ライブネス検査装置は、その他の様々な拡散の速度ベースの統計的情報を用いて映像内オブジェクトのライブネスを検査してもよい。例えば、ライブネス検査装置は、予め決定した閾値以上の拡散速度に対応するピクセルの分布などを用いてもよい。
一例として、ライブネス検査装置は、数式(8)に基づいて映像内の顔のライブネスを判断してもよい。
ライブネス検査装置は
を満足する場合、映像内の顔がライブオブジェクトに該当すると判断してもよい。
他の例として、ライブネス検査装置は、数式(9)に基づいて映像内の顔のライブネスを検査してもよい。
ライブネス検査装置は
を満足する場合、映像内の顔がライブオブジェクトに該当すると判断してもよい。
または、ライブネス検査装置は、SRマップを利用しない拡散速度ベースの統計的情報を用いてもよい。例えば、ライブネス検査装置は、全てのピクセルの拡散速度それぞれの値、全てのピクセルの拡散速度の平均、全てのピクセルの拡散速度の標準偏差などを用いてもよい。または、ライブネス検査装置は、拡散速度に基づいたフィルタ応答を用いてもよい。例えば、ライブネス検査装置は、全てのピクセルの拡散速度にメディアンフィルタリングを適用した結果を用いてもよい。
ライブネス検査装置は、拡散の速度ベースの統計的情報に基づいて様々な特徴を抽出し、抽出された特徴を学習させてもよい。例えば、ライブネス検査装置は、学習段階で様々なトレーニング映像から拡散の速度ベースの統計的情報を算出し、統計的情報から抽出された特徴を用いて分類器を学習させてもよい。トレーニング映像は、ライブオブジェクトを含む映像及びフェイクオブジェクトを含む映像で構成してもよい。
簡単な構造の分類器は、ユークリッド距離(Euclidean distance)なのどベクトル間の距離、または、正規化された相関性(normalized correlation)などの類似度を求め、ベクトルの間の距離や類似度を閾値と比較してもよい。より精巧な分類器として、神経網やベイズ分類器(Bayesian classifier)、SVM(Support Vector Machine)学習分類器、エイダブースト(Adaboost)学習分類器などを用いてもよい。
ライブネス検査装置は、入力映像から拡散の速度ベースの統計的情報を算出し、統計的情報から予め決定した方式で特徴を抽出してもよい。予め決定した方式は、学習段階で用いられる方式であってもよい。ライブネス検査装置は、抽出された特徴と学習されたパラメータを分類器に入力することによって、入力映像に含まれたオブジェクトのライブネスを検査してもよい。分類器は、抽出された特徴と学習されたパラメータに基づいて入力映像に含まれたオブジェクトがライブオブジェクトであるか、あるいはフェイクオブジェクトであるかを示す信号を出力してもよい。
図6は、他の実施形態に係るライブネス検査装置を示すブロック図である。図6を参照すると、ライブネス検査装置600は、受信部611、拡散部612、及び検査部613を含む。受信部611は入力映像を受信する。受信部611は図3に示す受信部311に対応する。
例えば、拡散部612は、入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散してもよい。図6に示す構成要素612は拡散部を示すものと実施形態に図示されているが、構成要素612はより包括的にフィルタ又はフィルタリング回路を指してもよい。さらに、適切なフィルタリング動作が適用されてもよい。
拡散部612は、拡散方程式に基づいて入力映像に含まれたオブジェクトに対応する複数のピクセル値を繰り返し更新してもよい。例えば、拡散部612は、数式(1)を用いて入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散してもよい。
拡散部612は、拡散方程式に加算演算子分割方式を適用することによって、入力映像に含まれたオブジェクトに対応する複数のピクセル値を繰り返し更新してもよい。例えば、拡散部612は、数式(3)を用いて入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散してもよい。拡散部612は、複数のピクセルが拡散して生成される拡散映像を出力してもよい。
検査部613は、複数のピクセルの拡散速度に基づいて入力映像に含まれたオブジェクトのライブネスを検査してもよい。一例として、検査部613は、オブジェクトのライブネスを検査するため、拡散速度に基づいてオブジェクトに関する表面特性を推定してもよい。表面特性は、オブジェクト表面に関する特性で、例えばオブジェクト表面の光反射性質、オブジェクト表面の次元数、オブジェクト表面の材質などを含んでもよい。
検査部613は、入力映像に含まれたオブジェクトに関する表面特性を推定するため、入力映像に含まれた光エネルギーの分布を分析してもよい。例えば、検査部613は、入力映像に含まれた光エネルギーの分布を分析することによって、入力映像に含まれたオブジェクトが2次元平面などの顔を表示する媒体の表面特性を有するか、あるいは3次元構造などユーザの実際の顔の表面特性を有するか否かを判断してもよい。
入力映像に含まれたオブジェクトが2次元平面などの顔を表示する媒体の表面特性を有すると判断される場合、検査部613は、検査失敗に対応する信号を出力してもよい。例えば、もし、検査部613が入力映像に含まれたオブジェクトが顔を表示する媒体の表面特性を有すると判断される場合、検査部613は、検査失敗を示す信号を出力してもよい。または、入力映像に含まれたオブジェクトが3次元構造などユーザの実際の顔の表面特性を有すると判断される場合、検査部613は、検査成功に対応する信号を出力してもよい。例えば、もし、検査部613が入力映像に含まれたオブジェクトがユーザの実際の顔の表面特性を有すると判断する場合、検査部613は、検査成功を示す信号を出力してもよい。
他の例として、検査部613は、オブジェクトのライブネスを検査するため、拡散速度に関する統計的情報を算出してもよい。例えば、2次元オブジェクトと3次元オブジェクトは、光を反射させる性質が互いに異なる。2次元オブジェクトと3次元オブジェクトとの間に異なる光反射性質は、拡散速度を用いてモデリングされてもよい。
検査部613は、入力映像と拡散映像を用いて拡散速度を算出してもよい。例えば、検査部613は、数式(4)を用いてピクセルそれぞれの拡散速度を算出してもよい。検査部613は、拡散速度に関する統計的情報を算出するため、数式(5)を用いてスモールスケールの領域を抽出してもよい。抽出されたスモールスケールの領域は、SRマップに表現されてもよい。検査部613は、数式(6)又は数式(7)を用いて入力映像内のオブジェクトのライブネスを判断してもよい。
検査部613は、その他の様々な拡散の速度ベースの統計的情報を用いて入力映像内のオブジェクトのライブネスを検査してもよい。例えば、検査部613は、予め決定した閾値以上の拡散速度に対応するピクセルの分布などを用いてもよい。また、検査部613は、SRマップを利用しない拡散の速度ベースの統計的情報を用いてもよい。
検査部613は、統計的情報が顔を表示する媒体に関する統計的情報に対応する場合、検査失敗に対応する信号を出力してもよい。または、検査部613は、統計的情報がユーザの実際の顔に関する統計的情報に対応する場合、検査成功に対応する信号を出力してもよい。例えば、算出された統計的情報が顔を表示する媒体を示す場合、検査部613は、検査失敗を示す信号を出力してもよい。一方、算出された統計的情報がユーザの実際の顔を示す場合、検査部613は検査成功を示す信号を出力してもよい。
ライブネス検査装置600は、単一入力映像を用いてオブジェクトのライブネスを検査してもよい。ここで、単一入力映像は、単一写真、単一イメージ、または、単一フレームの静止画であってもよい。
一つの実施形態に係る映像処理
図7は、一つの実施形態に係る映像処理を説明する図である。図7を参照すると、一つの実施形態に係る入力映像710はユーザの顔を含む。入力映像710に含まれたユーザの顔は、照明によって大きく影響を受ける。例えば、図8を参照すると、同一人の顔を撮影しても照明により生成する映像が大きく変わる。このように照明の変化に脆弱な入力映像を用いる場合、顔認識及び/又はユーザ認証の信頼度が大きく低下し、演算の複雑度が増加する場合がある。
一つの実施形態に係る映像処理装置は、入力映像から照明の変化に堅牢な映像を生成する。または、映像処理装置は、入力映像が取得されるときオブジェクトに照射される照明によって実質的に影響を受けない映像を生成する。本実施形態は、照明の変化に堅牢な映像を生成することによって、顔認識及び/又はユーザ認証の信頼度を向上したり、顔認識及び/又はユーザ認証の演算の複雑度を低減させる技術を提供することができる。
入力映像710は、照明成分715及び非照明成分を含んでもよい。照明成分715は、ピクセル値を構成する成分のうち外部照明によって影響を受ける成分である。非照明成分は、ピクセル値を構成する成分のうち外部照明によって実質的に影響を受けない成分である。映像処理装置は、入力映像710から照明成分715を分離することによって、照明の変化に堅牢な映像を生成することができる。
映像処理装置は、入力映像から顔領域を検出してもよい。この場合、本実施形態は、入力映像から検出された顔領域に適用されてもよい。以下、「顔映像」は顔を含む入力映像そのものを指したり、入力映像から抽出された顔領域を指してもよい。
顔映像は、照明成分と非照明成分を用いて表現されてもよい。例えば、顔映像は、ランバートモデルによって数式(10)のように表現されてもよい。
ここで、Iは顔映像であり、wは照明成分であり、vは非照明成分である。Iは入力映像710に当該し、wは照明成分に関する映像720に当該し、vは非照明成分に関する映像730に当該する。
照明成分に関する映像720は照明成分715を含み、非照明成分に関する映像730は照明成分715を実質的に含まなくてもよい。そのため、非照明成分に関する映像730は、照明の変化に堅牢な映像である。非照明成分に関する映像730は、カノニカル映像(canonical image)と称してもよい。
照明成分715は、主にラージスケールの領域に分布する可能性が大きいため、照明成分に関する映像720は、ラージスケールの領域に該当する映像であってもよい。照明成分715は、スモールスケールの領域に分布する可能性が低いため、非照明成分に関する映像730は、スモールスケールの領域に該当する映像であってもよい。
映像処理装置は、入力映像710から非照明に関する映像730を生成してもよい。例えば、映像処理装置は、入力映像710を受信してもよい。映像処理装置は、入力映像710から照明成分に関する映像720を生成してもよい。映像処理装置は、入力映像710と照明成分に関する映像720を数式(10)に適用することによって、非照明に関する映像730を算出する。
映像処理装置は、照明成分に関する映像720を生成するため、入力映像710を拡散してもよい。スモールスケールの領域に属するピクセルの拡散速度は、ラージスケールの領域に属するピクセルの拡散速度よりも大きい。映像処理装置は、拡散速度の差を用いてスモールスケールの領域とラージスケールの領域とを分離してもよい。例えば、映像処理装置は、予め決定した反復回数だけ入力映像710に含まれた複数のピクセルを拡散することによって、ラージスケールの領域に該当する照明成分に関する映像720を生成してもよい。
映像処理装置は、拡散方程式を用いて複数のピクセル値を繰り返し更新してもよい。例えば、映像処理装置は、数式(11)を用いて入力映像710の顔に対応する複数のピクセルを拡散してもよい。
ここで、kは反復回数であり、uはk番目の反復後のピクセル値であり、uk+1はk+1番目の反復後のピクセル値である。uはu(x、y)であり、映像内(x、y)の位置に該当するピクセルがk番目に拡散された結果、当該ピクセルが有する値であってもよい。uk+1はuk+1(x、y)であり、映像内(x、y)の位置に該当するピクセルがk+1回拡散された結果、当該ピクセルが有する値であってもよい。例えば、uは入力映像710のピクセル値であってもよい。最終の反復回数がLである場合、uは照明成分に関する映像720のピクセル値であってもよい。
∇は勾配演算子であり、div()は発散関数である。d()は拡散関数である。拡散関数は予め決定されてもよい。例えば、映像処理装置は、拡散関数を数式(12)のように定義してもよい。
ここで、βは、小さな正数であってもよい。数式(12)のように定義される拡散関数を使用する場合、拡散動作のうち顔の境界が円満に格納される。数式(12)のように拡散関数が∇uの関数である場合、拡散方程式は非線形であってもよい。以下、拡散によって生成される映像は、拡散映像と称されてもよい。拡散関数が非線形である場合、拡散によって生成される映像は非線形拡散映像と称されてもよい。
数式(12)は拡散関数の例示的な事項であって、拡散関数は様々に変形されてもよい。例えば、入力映像により複数の候補拡散関数のいずれか1つの候補拡散関数が選択されてもよい。さらに、拡散関数について実施形態を説明したが、上述したように他のフィルタリング関数も使用されてもよい。
映像処理装置は、数式(11)を解くために加算演算子分割方式を適用してもよい。例えば、映像処理装置は、数式(13)を用いて入力映像710の顔に対応する複数のピクセルを拡散してもよい。
ここで、Iは入力映像710のピクセル値であり、Aは水平方向にの拡散マトリックスであり、Aは垂直方向にの拡散マトリックスである。τはタイムステップであってもよい。最終の反復回数Lとタイムステップτは予め決定されてもよい。一般に、タイムステップτが小さく設定され、最終の反復回数Lが大きく設定される場合、最終的に拡散されたピクセル値uの信頼度は向上する。
映像処理装置は、数式(11)を解くために加算演算子分割方式を用いることによって、最終の反復回数Lを減少させ得る。加算演算子分割方式を用いる場合、任意の大きさのタイムステップτを用いても最終的に拡散されたピクセル値uの信頼度が高いためである。映像処理装置は、拡散方程式を解くために加算演算子分割方式を用いることによって、拡散動作のための演算の効率性を向上させることができる。
映像処理装置は、入力映像710及び照明成分に関する映像720に基づいて非照明成分に関する映像730を生成してもよい。例えば、映像処理装置は、数式(14)又は数式(15)を用いて非照明成分に関する映像730を生成してもよい。数式(10)のwはuに対応するため、数式(10)から数式(14)又は数式(15)が導き出されてもよい。
ここで、Iは顔映像であり、例えば、入力映像710に該当してもよい。Iはuであってもよい。uはラージスケールの領域として、例えば、照明成分に関する映像720に該当してもよい。vはスモールスケールの領域として、例えば、非照明成分に関する映像730に該当してもよい。
図9は、一つの実施形態に係る映像処理装置を示すブロック図である。顔認識及び/又はユーザ認証回路920については後述する。図9を参照すると、一つの実施形態に係る映像処理装置910は、受信部911、拡散部912、及び生成部913を含む。
図9において構成要素912は、拡散部を指す実施形態として示されたが、構成要素912は、より包括的にフィルタ又はフィルタリング回路を指してもよい。さらに、適切なフィルタリング動作が適用されてもよい。
例えば、受信部911は、入力映像を受信する。受信部911は、イメージセンサから生成された入力映像を受信してもよい。受信部911は、イメージセンサと有線又は無線に接続したり、ネットワークを介して接続されてもよい。受信部911は、メインメモリ、キャッシュメモリ、ハードディスクドライブ、固体ドライブ、フラッシュメモリデバイス、ネットワークドライブなどの格納装置から入力映像を受信してもよい。
拡散部912は、入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散する。オブジェクトはユーザの顔であってもよい。拡散部912は、拡散方程式に基づいて入力映像に含まれたオブジェクトに対応する複数のピクセル値を繰り返し更新してもよい。例えば、拡散部912は、数式(11)を用いて入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散してもよい。
拡散部912は、拡散方程式に加算演算子分割方式を適用することによって、入力映像に含まれたオブジェクトに対応する複数のピクセル値を繰り返し更新してもよい。例えば、拡散部912は、数式(13)を用いて入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散してもよい。拡散部912は、複数のピクセルが拡散して生成される拡散映像を出力してもよい。拡散映像は、照明に関する映像であってもよい。
生成部913は、入力映像と拡散映像を用いて出力映像を生成する。例えば、生成部913は、数式(14)又は数式(15)を用いて出力映像を生成してもよい。出力映像は、非照明成分に関する映像(例えば、図7に示す730)であってもよい。生成部913は、顔認識及び/又はユーザ認証回路920に出力映像を出力してもよい。顔認識及び/又は、ユーザ認証回路920は周知の顔認識及び/又はユーザ認証動作を行ってもよく、これに関する詳細な事項は後述する。また、生成部913は、出力映像をメモリ(図示せず)に出力してもよい。
一つの実施形態によると、映像生成装置910は、単一入力映像を用いて出力映像を生成してもよい。ここで、単一入力映像は、単一写真、単一イメージ、または、単一フレームの静止画であってもよい。
顔認識及び/又はユーザ認証回路920は、出力映像に基づいて入力映像に含まれた顔を認識する。出力映像は非照明成分に関する映像であり、照明の変化に堅牢な映像である。顔認識及び/又はユーザ認証回路920は、照明の変化に堅牢な映像を用いて入力映像に含まれた顔を認識するため、顔認識の正確度及び/又は信頼度が向上する。例えば、照明の変化に堅牢な映像を用いる場合、低照度環境で整列演算の性能が向上される。
他の例として、顔認識及び/又はユーザ認証回路920は、出力映像に基づいてユーザを認証してもよい。例えば、映像生成装置910は、出力映像に基づいてユーザの顔を認識することによってユーザを認証してもよい。出力映像は非照明成分に関する映像であり、照明の変化に堅牢な映像であってもよい。映像生成装置910は、照明の変化に堅牢な映像を用いてユーザを認証するため、ユーザ認証の正確度及び/又は信頼度が向上される。
一つの実施形態に係る動作フローチャート
図10は、一つの実施形態に係るライブネス検査方法を示した動作フローチャートである。一例として、図10に示された動作フローチャートは、図3及び図6に示されたライブネス検査装置と関連する。図10を参照すると、一つの実施形態に係るライブネス検査方法は、入力映像を受信するステップS1010及び受信された入力映像に含まれたオブジェクトのライブネスを検査するステップS1020を含む。
図3に示されたライブネス検査装置の、例えば、ステップS1010において受信部311は入力映像を受信し、ステップS1020において検査部312は受信された入力映像に含まれたオブジェクトのライブネスを検査してもよい。検査部312は、入力映像内のオブジェクトが2次元平面的な特性又は3次元構造的な特性を有するか否かに基づいて、入力映像に含まれたオブジェクトのライブネスを検査してもよい。検査部312の具体的な動作は図3を参照して前述したため、より詳細な説明は省略する。
図6に示されたライブネス検査装置600の、例えば、ステップS1010において受信部611は入力映像を受信する。ステップS1020において拡散部612は、受信された入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散し、検査部613は、複数のピクセルの拡散速度に基づいてオブジェクトのライブネスを検査してもよい。拡散部612と検査部613の具体的な動作は図6を参照して前述したため、より詳細な説明は省略する。
一例として、入力映像に含まれたオブジェクトのライブネスを検査するステップS1020は、入力映像に含まれたオブジェクトが平面的な特性又は3次元構造的な特性を有するか否かに基づいて、入力映像に含まれたオブジェクトのライブネスを検査するステップであってもよい。
他の例として、入力映像に含まれたオブジェクトのライブネスを検査するステップS1020は、入力映像に含まれたオブジェクトに対応する複数のピクセルを拡散するステップ、及び複数のピクセルの拡散速度に基づいてオブジェクトのライブネスを検査するステップを含んでもよい。
図11は、一つの実施形態に係る映像処理方法を示した動作フローチャートである。図11を参照すると、一つの実施形態に係る映像処理方法は、第1映像を受信するステップS1110、第2映像を生成するステップS1120、及び第3映像を生成するステップS1130を含む。
第1映像は入力映像(例えば、図7に示す710)であってもよい。第2映像は照明成分に関する映像(例えば、図7に示す720)であってもよい。第3映像は非照明成分に関する映像(例えば、図7に示す730)であってもよい。
図9に示された映像処理装置の、例えば、ステップS1110において受信部911は第1映像を受信してもよい。ステップS1120において拡散部912は第1映像に基づいて第2映像を生成してもよい。例えば、第2映像は、照明成分に関する映像(例えば、図7に示す720)であってもよい。
ステップS1130において、生成部は第1映像と第2映像に基づいて第3映像を生成する。この場合、第3映像は、非照明成分に関する映像(例えば、図7に示す730)であってもよい。拡散部912及び生成部913の具体的な動作は、図9を参照して前述したため、より詳細な説明は省略する。
図10及び図11に示された各ステップには、図1〜図9を参照して前述した事項がそのまま適用されているため、より詳細な説明は省略する。
図12は、他の実施形態に係る映像処理方法を示した動作フローチャートである。図12を参照すると、図10に示されたライブネス検査方法と図11に示された映像処理方法とが組合わされてもよい。
ステップS1210において、第1映像が受信される。第1映像は入力映像であってもよい。入力映像はユーザの顔を含んでもよい。ステップS1220において、第1映像に基づいて第2映像が生成される。第2映像は、第1映像が拡散することによって生成されてもよい。第2映像は、照明成分に関する映像であってもよい。
ステップS1240において、第1映像と第2映像に基づいてピクセル単位で拡散速度が算出される。例えば、それぞれのピクセルの拡散速度は、第2映像内のピクセル値と第1映像内のピクセル値との間の差により算出されてもよい。
ステップS1250において、拡散速度に基づいて統計的情報が抽出される。例えば、予め決定した閾値よりも大きい拡散速度を有するピクセルの数が算出されてもよい。ステップS1270において、拡散の速度ベースの統計的情報を用いてライブネス検査が行われる。例えば、予め決定した閾値よりも大きい拡散速度を有するピクセルの数を用いて入力映像がライブするか否かを判断してもよい。もし、ライブネス検査が失敗した場合、顔認識及び/又はユーザ認証を行わずに動作が終了される。
もし、ライブネス検査が成功した場合、顔認識及び/又はユーザ認証が行われる。この場合、顔認識及び/又はユーザ認証のために照明の変化に堅牢な映像が生成される。ステップS1230において、第1映像及び第2映像に基づいて第3映像が生成される。第3映像は、第1映像と第2映像との間の比又はログドメインで第1映像と第2映像との間の差により算出されてもよい。第3映像は非照明成分に関する映像であって、照明の変化に堅牢な映像である。
ステップS1260において、第3映像を用いて顔認識及び/又はユーザ認証が行われる。ステップS1260では、ライブネス検査が成功した場合に限って顔認識及び/又はユーザ認証が行われてもよい。ここで、照明の変化に堅牢な映像である第3映像を用いて顔認識及び/又はユーザ認証を行ってもよい。
図12に示された各ステップには、図1〜図11を参照して説明した事項がそのまま適用されるため、より詳細な説明は省略する。
図13は、一つの実施形態に係る電子システムを示すブロック図である。図13を参照すると、電子システムは、イメージセンサ1300、イメージプロセッサ1302、ディスプレイ1304、及びメモリ1308を含む。イメージセンサ1300、イメージプロセッサ1302、ディスプレイ1304、及びメモリ1308は、バス1306を介して通信してもよい。
イメージセンサ1300は、図1A及び図1Bに示されたイメージセンサ115であってもよい。イメージセンサ1300は、周知の方式(例えば、光学イメージを電気信号に変換する方式など)で映像をキャプチャーしてもよい。映像はイメージプロセッサ1302から出力される。
イメージプロセッサ1302は、図1〜図12を参照して前述した少なくとも1つの装置を含んだり、図1〜図12を参照して前述した少なくとも1つの方法を行ってもよい。例えば、イメージプロセッサ1302は、図3に示すライブネス検査装置310、図6に示すライブネス検査装置610、図9に示す映像処理装置910、図9に示す顔認識及び/又はユーザ認証回路920などを含んでもよい。メモリ1308は、イメージセンサ1300によってキャプチャーされた映像、ライブネス検査装置によって生成された映像、及び/又は映像処理装置によって生成された映像を格納してもよい。メモリ1308は、揮発性メモリ又は不揮発性メモリであってもよい。ディスプレイ1304は、イメージセンサ1300によってキャプチャーされた映像、ライブネス検査装置によって生成された映像、及び/又は映像処理装置によって生成された映像を表示してもよい。
イメージプロセッサ1302は、プログラムを実行して電子システムを制御してもよい。イメージプロセッサ1302によって実行されるプログラムコードはメモリ1308に格納されてもよい。
電子システムは、入出力装置(図示せず)によって外部装置(例えば、パーソナルコンピュータ又はネットワーク)に接続し、データを交換してもよい。
電子システムは、携帯電話、スマートフォン、PDA、タブレットコンピュータ、ラップトップコンピュータなどモバイル装置、パーソナルコンピュータ、タブレットコンピュータ、ネットブックなどコンピュータ装置、または、テレビ、スマートテレビ、ゲート制御のためのセキュリティ装置など電子製品などの様々な電子システムを含んでもよい。
以上で説明した実施形態(例えば、ライブネス検査装置、映像処理装置、電子システムなど)は、ハードウェア構成要素、ソフトウェア構成要素、及び/またはハードウェア構成要素及びソフトウェア構成要素の組合せで実現してもよい。例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、または、命令(instruction)を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータまたは特殊目的のコンピュータを用いて実現されてもよい。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを行ってもよい。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理及び生成してもよい。理解の便宜のために、処理装置は1つ使用されるものと説明された場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサまたは1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアはコンピュータプログラム、コード、命令、またはこのうちの1つ以上の組合せを含んでもよく、希望の通りに動作するよう処理装置を構成したり独立的または結合的に処理装置を命令してもよい。ソフトウェア及び/またはデータは、処理装置によって解釈されたり処理装置に命令またはデータを提供するためどのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体または装置、送信される信号波に永久的または一時的に具体化できる。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータで読み出し可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうち1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
110 ライブネス検査装置
115 イメージセンサ
120 ユーザ
210 媒体
211 表示された顔
220 ユーザの実際の顔
310 ライブネス検査装置
410、420、430 映像
510、520 SRマップ
600 ライブネス検査装置
710 入力映像
720 照明成分に関する映像
730 非照明に関する映像

Claims (31)

  1. 受信された入力映像に含まれたオブジェクトに対応する複数のピクセルの拡散速度に関する統計的情報に基づいて、前記オブジェクトのイメージが平面を示す平面的な特性又は3次元構造を示す3次元構造的な特性を有するか否かを判断するステップと、
    前記オブジェクトのイメージが平面を示す平面的な特性又は前記3次元構造的な特性を有するか否かに基づいて、前記オブジェクトのライブネスを検査するステップと、を含む、
    ライブネス検査方法。
  2. 前記入力映像に含まれたオブジェクトのイメージは、顔に該当する、
    請求項1に記載のライブネス検査方法。
  3. 前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断する前記ステップは、光エネルギーの分布に基づく、
    請求項1に記載のライブネス検査方法。
  4. 前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断する前記ステップは、光エネルギーが均一に分布した程度に基づく、
    請求項1に記載のライブネス検査方法。
  5. 拡散方程式に基づいて前記複数のピクセル値を繰り返し更新するステップと、
    反復的な更新前後のピクセル値の差に基づいて、前記複数のピクセルの拡散速度を算出するステップ、をさらに含む、
    請求項に記載のライブネス検査方法。
  6. 前記拡散速度に関する統計的情報は、
    前記複数のピクセルのうち予め決定した第1閾値以上の拡散速度に対応するピクセルの数と、
    前記第1閾値以上の拡散速度に対応するピクセルの分布と、
    前記拡散速度の大きさに基づいて抽出された第1スケールの領域に含まれた雑音成分の量と、
    前記拡散速度の平均と、
    前記拡散速度の標準偏差と、
    前記拡散速度に基づいたフィルタ応答と、
    のうち少なくとも1つを含む、
    請求項1または5に記載のライブネス検査方法。
  7. 受信された入力映像に含まれたオブジェクトのイメージが平面を示す平面的な特性又は3次元構造を示す3次元構造的な特性を有するか否かに基づいて、前記オブジェクトのライブネスを検査するステップと、
    フィルタリングされた映像を生成するために前記受信された入力映像をフィルタリングするステップと、
    前記受信された入力映像内の前記オブジェクトのイメージに対応する複数のピクセル、及び前記フィルタリングされた映像内の前記オブジェクトのイメージに対応する複数のピクセル値の変化に関する統計的情報に基づいて、前記オブジェクトのイメージが前記平面的な特性又は前記3次元構造的な特性を有するか否かを判断するステップと、を含む、
    ライブネス検査方法。
  8. 拡散映像を生成するために前記受信された入力映像を拡散するステップと、
    前記受信された入力映像内のピクセル値と前記拡散映像内のピクセル値との間の差に基づいて、前記オブジェクトのイメージに対応する複数のピクセルの拡散速度を算出するステップと、
    をさらに含み、
    前記算出された拡散速度に基づいて前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断するステップ、を含む、
    請求項に記載のライブネス検査方法。
  9. 前記オブジェクトのライブネスを検査するステップは、
    前記オブジェクトが前記平面的な特性を有すると判断される場合、検査失敗に対応する信号を出力するステップと、
    前記オブジェクトが前記3次元構造的な特性を有すると判断される場合、検査成功に対応する信号を出力するステップと、
    のうち少なくとも1つを含む、
    請求項1または7に記載のライブネス検査方法。
  10. 前記入力映像は、単一映像である、
    請求項1または7に記載のライブネス検査方法。
  11. フィルタリングされた映像を生成するためにオブジェクトのイメージを含む受信された映像をフィルタリングするステップと、
    前記受信された映像と前記フィルタリングされた映像に含まれたオブジェクトのイメージに対応するピクセル値の変化量を決定するステップと、
    前記変化量に基づいて前記オブジェクトのライブネスを検査するステップと、
    を含む、ライブネス検査方法。
  12. 前記フィルタリングするステップは、拡散映像を生成するために、前記受信された映像に含まれた前記オブジェクトのイメージに対応する複数のピクセルを拡散するステップ、を含み、
    前記検査するステップは、前記拡散速度に基づいて前記オブジェクトのライブネスを検査するステップ、を含み、
    前記ライブネス検査方法は、前記受信された映像と前記拡散映像内の前記オブジェクトのイメージに対応するピクセル値に基づいて、前記オブジェクトのイメージに対応するピクセルの拡散速度を算出するステップをさらに含む、
    請求項11に記載のライブネス検査方法。
  13. 前記映像に含まれたオブジェクトは、顔に該当する、
    請求項11または12に記載のライブネス検査方法。
  14. 前記複数のピクセルを拡散するステップは、拡散方程式に基づいて前記複数のピクセル値を繰り返し更新するステップ、を含む、
    請求項12に記載のライブネス検査方法。
  15. 前記複数のピクセルを拡散するステップは、拡散方程式に加算演算子分割(additive operator splitting:AOS)方式を適用することによって、前記複数のピクセル値を繰り返し更新するステップ、を含む、
    請求項14に記載のライブネス検査方法。
  16. 前記オブジェクトのライブネスを検査するステップは、
    前記拡散速度に基づいて前記オブジェクトに関する表面特性を推定するステップと、
    前記推定された表面特性に基づいて前記オブジェクトのライブネスを検査するステップと、
    を含む、
    請求項12に記載のライブネス検査方法。
  17. 前記表面特性は
    前記オブジェクト表面の光反射性質と、
    前記オブジェクト表面の次元数と、
    前記オブジェクト表面の材質と、
    のうち少なくとも1つを含む、
    請求項16に記載のライブネス検査方法。
  18. 前記表面特性を推定するステップは、前記表面特性を推定するために、前記拡散速度に基づいて前記入力映像に含まれた光エネルギーの分布を分析するステップ、を含む、
    請求項16または17に記載のライブネス検査方法。
  19. 前記オブジェクトのライブネスを検査するステップは、
    前記表面特性が顔を表示する媒体の表面特性に対応する場合、検査失敗に対応する信号を出力するステップと、
    前記表面特性が実際の顔の表面特性に対応する場合、検査成功に対応する信号を出力するステップと、
    のうち少なくとも1つをさらに含む、
    請求項16乃至18いずれか一項に記載のライブネス検査方法。
  20. 前記オブジェクトのライブネスを検査するステップは、
    前記拡散速度に関する統計的情報を算出するステップと、
    前記統計的情報に基づいて前記オブジェクトのライブネスを検査するステップと、
    を含む、
    請求項12に記載のライブネス検査方法。
  21. 前記統計的情報を算出するステップは、
    前記拡散速度のうち予め決定した第1閾値以上の拡散速度に対応するピクセルの数を算出するステップと、
    前記拡散速度のうち前記第1閾値以上の拡散速度に対応するピクセルの分布を算出するステップと、
    前記拡散速度の平均及び標準偏差のうち少なくとも1つを算出するステップと、
    前記拡散速度に基づいたフィルタ応答を算出するステップと、
    のうち少なくとも1つを含む、
    請求項20に記載のライブネス検査方法。
  22. 前記統計的情報を算出するステップは、
    前記拡散速度の大きさに基づいて前記入力映像から第1スケールの領域を抽出するステップと、
    前記第1スケールの領域の特徴を抽出するステップと、
    を含み、
    前記検査するステップは、前記抽出された特徴に基づいて前記オブジェクトのライブネスを検査するステップを含む、
    請求項20に記載のライブネス検査方法。
  23. 前記第1スケールの領域の特徴は、前記第1スケールの領域に含まれた雑音成分の量を含み、
    前記雑音成分は、前記第1スケールの領域にメディアンフィルタリングを適用した結果と前記第1スケールの領域の間の差に基づいて算出される、
    請求項22に記載のライブネス検査方法。
  24. 前記オブジェクトのライブネスを検査するステップは、
    前記統計的情報が顔を表示する媒体に関する統計的情報に対応する場合、検査失敗に対応する信号を出力するステップと、
    前記統計的情報が実際の顔に関する統計的情報に対応する場合、検査成功に対応する信号を出力するステップと、
    のうち少なくとも1つをさらに含む、
    請求項20に記載のライブネス検査方法。
  25. 前記拡散速度を算出するステップは、拡散前の前記ピクセルが有するオリジナル値と拡散後の前記ピクセルが有する拡散値に基づいて、前記複数のピクセルのいずれか1つのピクセルの拡散速度を算出するステップを含む、
    請求項12に記載のライブネス検査方法。
  26. 前記オリジナル値と前記拡散値との間の差が大きいほど前記ピクセルの拡散速度が大きく算出され、前記オリジナル値と前記拡散値との間の差が小さいほど前記ピクセルの拡散速度が小さく算出される、
    請求項25に記載のライブネス検査方法。
  27. 前記入力映像は、ユーザの顔を含む単一映像であることを特徴とする、
    請求項11乃至13いずれか一項に記載のライブネス検査方法。
  28. 請求項1乃至請求項27いずれか一項に記載の方法を実行させるためのプログラムが記録されたコンピュータ読み出し可能な記録媒体。
  29. 受信された入力映像に含まれたオブジェクトのイメージが平面を示す平面的な特性又は3次元構造を示す3次元構造的な特性を有するか否かに基づいて、前記オブジェクトのライブネスを検査する検査部、を含み、
    前記検査部は、
    フィルタリングされた映像を生成するために前記受信された入力映像をフィルタリングし、
    前記受信された入力映像内の前記オブジェクトのイメージに対応する複数のピクセル、及び前記フィルタリングされた映像内の前記オブジェクトのイメージに対応する複数のピクセル値の変化に関する統計的情報に基づいて、前記オブジェクトのイメージが前記平面的な特性又は前記3次元構造的な特性を有するか否かを判断する、
    ライブネス検査装置。
  30. 前記入力映像に含まれたオブジェクトは顔である、
    請求項29に記載のライブネス検査装置。
  31. 前記検査部は、
    拡散映像を生成するために前記受信された入力映像を拡散し、
    前記受信された入力映像内のピクセル値と前記拡散映像内のピクセル値との間の差に基づいて、前記オブジェクトのイメージに対応する複数のピクセルの拡散速度を算出し、
    前記算出された拡散速度に基づいて前記オブジェクトのイメージが前記平面的な特性又は3次元構造的な特性を有するか否かを判断する、
    請求項29に記載のライブネス検査装置。
JP2015056767A 2014-05-09 2015-03-19 ライブネス検査方法と装置、及び映像処理方法と装置 Active JP6629513B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20140055687 2014-05-09
KR10-2014-0055687 2014-05-09
KR1020140077333A KR102257897B1 (ko) 2014-05-09 2014-06-24 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치
KR10-2014-0077333 2014-06-24

Publications (2)

Publication Number Publication Date
JP2015215876A JP2015215876A (ja) 2015-12-03
JP6629513B2 true JP6629513B2 (ja) 2020-01-15

Family

ID=52997256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015056767A Active JP6629513B2 (ja) 2014-05-09 2015-03-19 ライブネス検査方法と装置、及び映像処理方法と装置

Country Status (4)

Country Link
US (3) US9679212B2 (ja)
EP (2) EP2942736A3 (ja)
JP (1) JP6629513B2 (ja)
CN (1) CN105100547B (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679212B2 (en) * 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
US10049287B2 (en) * 2015-05-22 2018-08-14 Oath Inc. Computerized system and method for determining authenticity of users via facial recognition
US10275684B2 (en) * 2015-11-04 2019-04-30 Samsung Electronics Co., Ltd. Authentication method and apparatus, and method and apparatus for training a recognizer
KR20180102637A (ko) * 2016-01-12 2018-09-17 프린스톤 아이덴티티, 인크. 바이오메트릭 분석의 시스템 및 방법
CN105740778B (zh) * 2016-01-25 2020-01-03 北京眼神智能科技有限公司 一种改进的三维人脸活体检测方法及其装置
CN107135348A (zh) 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 拍摄对象的识别方法、装置、移动终端和照相机
KR102483642B1 (ko) * 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10635894B1 (en) * 2016-10-13 2020-04-28 T Stamp Inc. Systems and methods for passive-subject liveness verification in digital media
US11373449B1 (en) * 2016-10-13 2022-06-28 T Stamp Inc. Systems and methods for passive-subject liveness verification in digital media
US10430638B2 (en) * 2016-11-10 2019-10-01 Synaptics Incorporated Systems and methods for spoof detection relative to a template instead of on an absolute scale
US10726244B2 (en) 2016-12-07 2020-07-28 Samsung Electronics Co., Ltd. Method and apparatus detecting a target
KR102370063B1 (ko) * 2017-03-28 2022-03-04 삼성전자주식회사 얼굴 인증 방법 및 장치
KR102455633B1 (ko) * 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN108154111B (zh) * 2017-12-22 2021-11-26 泰康保险集团股份有限公司 活体检测方法、系统、电子设备及计算机可读介质
KR102466997B1 (ko) * 2018-01-22 2022-11-14 삼성전자주식회사 라이브니스 검사 방법 및 장치
JP6984724B2 (ja) 2018-02-22 2021-12-22 日本電気株式会社 なりすまし検知装置、なりすまし検知方法、及びプログラム
US20190286885A1 (en) * 2018-03-13 2019-09-19 Kneron Inc. Face identification system for a mobile device
CN108496184B (zh) * 2018-04-17 2022-06-21 深圳市汇顶科技股份有限公司 图像处理方法、装置和电子设备
US11093771B1 (en) 2018-05-04 2021-08-17 T Stamp Inc. Systems and methods for liveness-verified, biometric-based encryption
US11496315B1 (en) 2018-05-08 2022-11-08 T Stamp Inc. Systems and methods for enhanced hash transforms
JP7131118B2 (ja) * 2018-06-22 2022-09-06 富士通株式会社 認証装置、認証プログラム、認証方法
US11138302B2 (en) * 2019-02-27 2021-10-05 International Business Machines Corporation Access control using multi-authentication factors
US11301586B1 (en) 2019-04-05 2022-04-12 T Stamp Inc. Systems and processes for lossy biometric representations
SG10201906721SA (en) * 2019-07-19 2021-02-25 Nec Corp Method and system for chrominance-based face liveness detection
US11475714B2 (en) * 2020-02-19 2022-10-18 Motorola Solutions, Inc. Systems and methods for detecting liveness in captured image data
US11967173B1 (en) 2020-05-19 2024-04-23 T Stamp Inc. Face cover-compatible biometrics and processes for generating and using same
EP4325429A4 (en) 2021-04-12 2024-05-08 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM
CN113569708A (zh) * 2021-07-23 2021-10-29 北京百度网讯科技有限公司 活体识别方法、装置、电子设备以及存储介质

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4209852A (en) * 1974-11-11 1980-06-24 Hyatt Gilbert P Signal processing and memory arrangement
JP2662856B2 (ja) * 1995-01-11 1997-10-15 株式会社エイ・ティ・アール通信システム研究所 形状特徴計測装置および方法
US6879341B1 (en) * 1997-07-15 2005-04-12 Silverbrook Research Pty Ltd Digital camera system containing a VLIW vector processor
JP4085470B2 (ja) * 1998-05-29 2008-05-14 オムロン株式会社 個人識別装置、個人識別方法および個人識別プログラムを記録した記録媒体
US6263113B1 (en) 1998-12-11 2001-07-17 Philips Electronics North America Corp. Method for detecting a face in a digital image
JP2001126091A (ja) * 1999-10-27 2001-05-11 Toshiba Corp 乗員顔画像処理システムおよび通行料金収受システム
KR100421221B1 (ko) 2001-11-05 2004-03-02 삼성전자주식회사 조명에 강인한 객체 추적 방법 및 이를 응용한 영상 편집장치
US7256818B2 (en) * 2002-05-20 2007-08-14 Simmonds Precision Products, Inc. Detecting fire using cameras
US7620212B1 (en) * 2002-08-13 2009-11-17 Lumidigm, Inc. Electro-optical sensor
ATE349739T1 (de) 2002-12-20 2007-01-15 Koninkl Philips Electronics Nv Beleuchtungsunabhängige gesichtserkennung
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
JP4734980B2 (ja) * 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP4696610B2 (ja) * 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、顔認証装置、携帯電話、及び被写体認証方法
EP2194509A1 (en) 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
WO2008091401A2 (en) * 2006-09-15 2008-07-31 Retica Systems, Inc Multimodal ocular biometric system and methods
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
US20130212655A1 (en) * 2006-10-02 2013-08-15 Hector T. Hoyos Efficient prevention fraud
KR100887183B1 (ko) 2007-03-21 2009-03-10 한국과학기술원 얼굴인식 전처리장치 및 방법과 이를 이용한얼굴인식시스템
JP4857170B2 (ja) 2007-04-10 2012-01-18 ダイヤニトリックス株式会社 カチオン型高分子凝集剤およびこれを用いた汚泥処理方法
US8463006B2 (en) * 2007-04-17 2013-06-11 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
JP2009187130A (ja) * 2008-02-04 2009-08-20 Panasonic Electric Works Co Ltd 顔認証装置
WO2009123640A1 (en) * 2008-04-04 2009-10-08 Hewlett-Packard Development Company, L.P. Virtual machine manager system and methods
WO2010036554A2 (en) * 2008-09-25 2010-04-01 Dolby Laboratories Licensing Corporation Improved illumination and light recycling in projection systems
KR20100073191A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
GB0901084D0 (en) * 2009-01-22 2009-03-11 Trayner David J Autostereoscopic display
CN101499164B (zh) 2009-02-27 2011-02-09 西安交通大学 一种基于单张低分辨率图像的图像插值重构方法
JP5106459B2 (ja) * 2009-03-26 2012-12-26 株式会社東芝 立体物判定装置、立体物判定方法及び立体物判定プログラム
CN101999900B (zh) * 2009-08-28 2013-04-17 南京壹进制信息技术有限公司 一种应用于人脸识别的活体检测方法及系统
CN101710383B (zh) * 2009-10-26 2015-06-10 北京中星微电子有限公司 一种身份认证的方法及认证装置
KR20110092752A (ko) 2010-02-10 2011-08-18 이인정 영상 번짐 검출방법 및 이 방법이 구현된 카메라
US8675926B2 (en) * 2010-06-08 2014-03-18 Microsoft Corporation Distinguishing live faces from flat surfaces
US8542898B2 (en) * 2010-12-16 2013-09-24 Massachusetts Institute Of Technology Bayesian inference of particle motion and dynamics from single particle tracking and fluorescence correlation spectroscopy
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
JP5035467B2 (ja) * 2011-10-24 2012-09-26 日本電気株式会社 立体性認証方法、立体性認証装置および立体性認証プログラム
US9075975B2 (en) * 2012-02-21 2015-07-07 Andrew Bud Online pseudonym verification and identity validation
US8817120B2 (en) 2012-05-31 2014-08-26 Apple Inc. Systems and methods for collecting fixed pattern noise statistics of image data
JP5955133B2 (ja) * 2012-06-29 2016-07-20 セコム株式会社 顔画像認証装置
CN102938144B (zh) 2012-10-15 2016-04-13 深圳先进技术研究院 基于总变分模型的人脸重加光方法
CN104904197B (zh) 2012-12-05 2016-12-28 富士胶片株式会社 摄像装置及异常倾斜入射光检测方法
US8914837B2 (en) * 2012-12-14 2014-12-16 Biscotti Inc. Distributed infrastructure
US9495526B2 (en) * 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
US20140270404A1 (en) * 2013-03-15 2014-09-18 Eyelock, Inc. Efficient prevention of fraud
US20140270409A1 (en) * 2013-03-15 2014-09-18 Eyelock, Inc. Efficient prevention of fraud
US20150124072A1 (en) 2013-11-01 2015-05-07 Datacolor, Inc. System and method for color correction of a microscope image
US9361700B2 (en) 2014-05-08 2016-06-07 Tandent Vision Science, Inc. Constraint relationship for use in an image segregation
US9679212B2 (en) * 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
US20160085958A1 (en) * 2014-09-22 2016-03-24 Intel Corporation Methods and apparatus for multi-factor user authentication with two dimensional cameras

Also Published As

Publication number Publication date
CN105100547B (zh) 2019-10-18
EP2942736A3 (en) 2015-12-23
US20150324629A1 (en) 2015-11-12
EP3699817A3 (en) 2020-10-21
EP3699817A2 (en) 2020-08-26
CN105100547A (zh) 2015-11-25
US20170228609A1 (en) 2017-08-10
US10360465B2 (en) 2019-07-23
US11151397B2 (en) 2021-10-19
US20160328623A1 (en) 2016-11-10
US9679212B2 (en) 2017-06-13
JP2015215876A (ja) 2015-12-03
EP2942736A2 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
JP6629513B2 (ja) ライブネス検査方法と装置、及び映像処理方法と装置
JP7165742B2 (ja) 生体検出方法及び装置、電子機器ならびに記憶媒体
KR102257897B1 (ko) 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치
US9152860B2 (en) Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
KR102113911B1 (ko) 생체 인식 인증을 위한 특징 추출 및 정합과 템플릿 갱신
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
CN110222573B (zh) 人脸识别方法、装置、计算机设备及存储介质
US11869272B2 (en) Liveness test method and apparatus and biometric authentication method and apparatus
US20210166045A1 (en) Method and apparatus with liveness testing
TW202026948A (zh) 活體檢測方法、裝置以及儲存介質
US11227149B2 (en) Method and apparatus with liveness detection and object recognition
WO2020159437A1 (en) Method and system for face liveness detection
CN111626163A (zh) 一种人脸活体检测方法、装置及计算机设备
Ebihara et al. Specular-and diffuse-reflection-based face spoofing detection for mobile devices
CN112052832A (zh) 人脸检测的方法、装置和计算机存储介质
Ebihara et al. Efficient face spoofing detection with flash
CN111967529B (zh) 识别方法、装置、设备及系统
Singh et al. LBP and CNN feature fusion for face anti-spoofing
US10984219B2 (en) Fingerprint processing with liveness detection
KR20200083188A (ko) 라이브니스 검출 방법 및 장치, 이를 이용한 객체 인식 방법
CN109063761A (zh) 扩散器脱落检测方法、装置及电子设备
KR102665968B1 (ko) 블러 추정 방법 및 장치
CN114299371A (zh) 证件识别模型训练及证件识别的方法、系统、设备及介质
KR20210073434A (ko) 전자 장치 및 그 제어 방법
KR20210050650A (ko) 모바일 기기의 페이스 인증을 통한 잠금 해제 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191205

R150 Certificate of patent or registration of utility model

Ref document number: 6629513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250