JP2020184331A - ライブネス検査方法及び装置、顔認証方法及び装置 - Google Patents

ライブネス検査方法及び装置、顔認証方法及び装置 Download PDF

Info

Publication number
JP2020184331A
JP2020184331A JP2020075172A JP2020075172A JP2020184331A JP 2020184331 A JP2020184331 A JP 2020184331A JP 2020075172 A JP2020075172 A JP 2020075172A JP 2020075172 A JP2020075172 A JP 2020075172A JP 2020184331 A JP2020184331 A JP 2020184331A
Authority
JP
Japan
Prior art keywords
face
range
image
liveness
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020075172A
Other languages
English (en)
Other versions
JP7191061B2 (ja
Inventor
韓娥 李
Hana Lee
韓娥 李
率愛 李
Solae Lee
率愛 李
民守 高
Minsu Ko
民守 高
智原 白
Jiwon Baek
智原 白
承周 韓
Jaejoon Han
承周 韓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190105867A external-priority patent/KR102570071B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020184331A publication Critical patent/JP2020184331A/ja
Application granted granted Critical
Publication of JP7191061B2 publication Critical patent/JP7191061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computer Security & Cryptography (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

【課題】学習過程で学習されていないケース及び珍しく学習されたケースであるコーナーケースに対してライブネス検査が実行されても、コーナーケースのタイプに対応する前処理過程を介してコーナーケースをライブネス検査モデルの学習過程で多く学習されたケースに切り替える過程を行うことで、コーナーケースへ強靭にライブネス検査を行うことができ、コーナーケースに対してもライブネス検査結果の高い正確度を提供する。【解決手段】ライブネス検査方法は、入力映像から顔領域を検出するステップと、顔領域の特性値(色調、ホワイトバランス、顔の傾き)を測定するステップと、測定された特性値が条件を満たしていない場合、顔領域の特性値を調整するステップと、特性値が調整された顔領域に基づいてライブネス検査を行うステップとを含む。【選択図】図3

Description

以下の実施形態はライブネス検査及び顔認証技術に関する。
ユーザ認証システム(user verification system)において、コンピューティング装置は、ユーザにより提供される認証情報に基づいて当該コンピューティング装置に対するアクセスを許容するか否かを決定することができる。認証情報は、ユーザによって入力されるパスワード又はユーザの生体情報(biometric information)などを含んでいる。生体情報は、指紋(fingerprint)、紅彩(iris)又は顔に関する情報を含む。
近年、ユーザ認証システムのためのセキュリティー方法であって、顔認証なりすまし防止(face anti−spoofing)技術に対する関心が増えつつある。顔認証なりすましは、写真、動画又はマスクなどを用いる攻撃形態を有し、顔認証においてこのような攻撃を区別することは重要である。
一実施形態に係るライブネス検査方法は、入力映像から顔領域を検出するステップと、前記顔領域の特性値を測定するステップと、前記測定された特性値が条件を満たしていない場合、前記顔領域の特性値を調整するステップと、前記特性値が調整された顔領域に基づいてライブネス検査を行うステップとを含む。
前記顔領域の特性値を測定するステップは、前記顔領域の色調を測定するステップを含み得る。
前記顔領域の特性値を調整するステップは、前記測定された顔領域の色調が予め設定された範囲に含まれていない場合、前記顔領域の色調を前記予め設定された範囲内に含まれる色調に補正するステップを含み得る。
前記顔領域の特性値を測定するステップは、前記顔領域に示された顔が傾いている程度を示す顔の傾きを測定するステップを含み得る。
前記の顔の傾きを測定するステップは、前記顔領域で、左眼、右眼、及び両側の口元に対応する特徴点を検出するステップと、前記検出された特徴点に基づいて前記の顔の傾きを測定するステップとを含み得る。
前記顔領域の特性値を調整するステップは、前記測定された顔の傾きが予め設定された範囲に含まれていない場合、前記の顔の傾きを補正するステップを含み得る。
前記顔領域の特性値を調整するステップは、前記測定された顔領域のホワイトバランスが予め設定された範囲に含まれていない場合、前記顔領域のホワイトバランスを補正するステップを含み得る。
一実施形態に係るライブネス検査方法は、前記測定された特性値が前記条件を満たす場合、前記特性値の調整なしに前記検出された顔領域に基づいてライブネス検査を行うステップをさらに含み得る。
前記ライブネス検査を行うステップは、ニューラルネットワーク基盤のライブネス検査モデルを用いて前記ライブネス検査を行うステップを含み得る。
一実施形態に係るそれぞれの映像特徴値を有する複数の顔映像で学習されたニューラルネットワークを用いる顔認証方法は、入力映像から顔領域に対する現在の顔映像を抽出するステップと、前記現在の顔映像の現在の映像特徴値を算出するステップと、前記現在の映像特徴値を、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値が有する範囲と比較するステップと、前記現在の映像特徴値が前記範囲から離脱する場合、前記現在の顔映像の映像特徴値が前記範囲に含まれるように前記現在の顔映像を調整するステップと、前記調整された現在の顔映像を前記ニューラルネットワークに入力させるステップとを含む。
前記範囲は、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値のうち、最小映像特徴値と最大映像特徴値に基づいて決定される絶対的な範囲であり得る。
前記範囲は、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値の分布特徴に基づいて決定される統計的な範囲であり、前記分布特徴は、前記映像特徴値の平均と標準偏差を含み得る。
前記ニューラルネットワークは、前記入力映像に示された顔オブジェクトのライブネスを検査するために用いられるニューラルネットワークであり得る。
前記ニューラルネットワークは、前記入力映像に示された顔オブジェクトを認証するために用いられるニューラルネットワークであり得る。
前記現在の映像特徴値を算出するステップは、前記現在の顔映像の色調値を算出するステップを含み、前記現在の顔映像を調整するステップは、前記色調値が前記範囲から離脱する場合、前記現在の顔映像の色調値が前記範囲内に含まれるように前記現在の顔映像の色調値を補正するステップを含み得る。
前記現在の映像特徴値を算出するステップは、前記現在の顔映像に示された顔が傾いている程度を示す顔の傾きを算出するステップを含み、前記現在の顔映像を調整するステップは、前記の顔の傾きが前記範囲から離脱する場合、前記の顔の傾きが前記範囲に含まれるように前記現在の顔映像の顔領域を回転させるステップを含み得る。
前記現在の映像特徴値を算出するステップは、前記現在の顔映像に示された顔領域のホワイトバランスを算出するステップを含み、前記現在の顔映像を調整するステップは、前記ホワイトバランスが前記範囲から離脱する場合、前記ホワイトバランスが前記範囲に含まれるように前記現在の顔映像のホワイトバランスを補正するステップを含み得る。
一実施形態に係る装置は、1つ以上のプロセッサを含み、前記1つ以上のプロセッサは、入力映像から顔領域を検出し、前記顔領域の特性値を測定し、前記測定された特性値が条件を満たしていない場合、前記顔領域の特性値を調整し、前記特性値が調整された顔領域に基づいてライブネス検査を行う。
前記1つ以上のプロセッサは、前記顔領域の色調を測定し、前記測定された顔領域の色調が予め設定された範囲に含まれていない場合、前記顔領域の色調を前記予め設定された範囲内に含まれる色調に補正し得る。
前記1つ以上のプロセッサは、前記顔領域に示された顔が傾いている程度を示す顔の傾きを測定し、前記測定された顔の傾きが予め設定された範囲に含まれていない場合、前記の顔の傾きを補正し得る。
前記1つ以上のプロセッサは、前記顔領域のホワイトバランスを測定し、前記測定された顔領域のホワイトバランスが予め設定された範囲に含まれていない場合、前記顔領域のホワイトバランスを補正し得る。
前記1つ以上のプロセッサは、前記測定された特性値が前記条件を満たす場合、前記特性値の調整なしに前記検出された顔領域に基づいてライブネス検査を行う。
一実施形態に係るそれぞれの映像特徴値を有する複数の顔映像で学習されたニューラルネットワークを用いる装置は、1つ以上のプロセッサを含み、前記1つ以上のプロセッサは、入力映像から顔領域に対する現在の顔映像を抽出し、前記現在の顔映像の現在の映像特徴値を算出し、前記現在の映像特徴値を、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値が有する範囲と比較し、前記現在の映像特徴値が前記範囲から離脱する場合、前記現在の顔映像の映像特徴値が前記範囲に含まれるように前記現在の顔映像を調整し、前記調整された現在の顔映像を前記ニューラルネットワークに入力させる。
一実施形態によれば、コーナーケースに対してライブネス検査が実行されても、コーナーケースのタイプに対応する前処理過程を介してコーナーケースをライブネス検査モデルの学習過程で多く学習されたケースに切り替える過程を行うことで、コーナーケースへ強靭にライブネス検査を行うことができ、コーナーケースに対してもライブネス検査結果の高い正確度を提供することができる。
一実施形態に係る顔認証及びライブネス検査を説明するための図である。 一実施形態に係る顔認証及びライブネス検査を説明するための図である。 一実施形態に係るライブネス検査方法の動作を説明するためのフローチャートである。 一実施形態に係る顔認証方法の動作を説明するためのフローチャートである。 一実施形態に係る顔認証装置の動作を説明するための図である。 一実施形態に係る絶対的な範囲と統計的な範囲の一例を説明するための図である。 一実施形態に係る色調を調整する前処理過程の一例を説明するための図である。 一実施形態に係る顔の傾きを調整する前処理過程の一例を説明するための図である。 一実施形態に係るライブネス検査方法の一例を説明するための図である。 一実施形態に係るライブネス検査方法の一例を説明するための図である。 一実施形態に係る顔認証装置の構成を示す図である。 一実施形態に係る電子装置の構成を示す図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更される。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
また、異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。添付の図面を参照して説明することにおいて、図面符号に関係なく、同じ構成要素は同じ参照符号を付し、これに対する重複する説明は省略することにする。
顔認証なりすまし防止技術は、コンピューティング装置に入力されたユーザの顔がフェイクの顔(fake face)であるか、そうでなければ本物の顔(genuine face)であるか否かを区別するために用いることができる。このような顔認証なりすまし防止技術は、入力映像からLBP(Local Binary Patterns)、HOG(Histogram of Oriented Gradients)、DoG(Difference of Gaussians)などのような特徴が抽出され、抽出された特徴に基づいて入力された顔がフェイクの顔であるか否かを判定するステップを含み得る。
図1及び図2は、一実施形態に係る顔認証及びライブネス検査を説明するための図である。
生体認証(biometrics)は、ユーザ認証のための認証技術のうち指紋、紅彩、顔、静脈、皮膚などの個人生体情報を用いる認証技術である。生体認証において顔認証(face verification)は、認証を試みたユーザの顔情報に基づいて当該ユーザが有効なユーザであるか否かを判断する認証方法である。顔認証は、ユーザログイン、決済サービス、及び出入り規制などで有効なユーザを認証するために用いられる。
図1を参照すると、一実施形態において、電子装置120は、顔認証を介して電子装置120にアクセスしようとするユーザ110に対する認証過程を行うことができる。例えば、ユーザ110が電子装置120のロック状態を解除しようと電子装置120に顔認証を試みるとき、電子装置120は、カメラ130のようなイメージセンサ又は映像取得装置を用いてユーザ110の顔映像を取得し、取得された顔映像を分析して電子装置100のロック状態を解除するか否かを決定する。一実施形態に係る顔映像を分析する過程は、顔映像から顔領域を検出し、特徴抽出器を用いて顔領域から特徴を抽出する過程を含む。抽出された特徴は、有効なユーザに対する登録特徴と比較し、その比較結果に基づいて顔認証の成功の可否が決定される。顔認証が成功したものと決定された場合、ユーザ110は、電子装置120のロックモードを確実に解除させることができる。反対に、顔認証が失敗したものと決定された場合、電子装置120は、継続的にロックモードで動作することになる。他の例において、ユーザ110が電子装置120を決済サービスを実行しようと電子装置120に顔認証を行う場合、電子装置120は、ユーザ110の顔映像を取得し、顔映像の分析結果としてユーザ110が有効なユーザとして認識された場合には決済要求を承認し、その他の場合は決済要求を拒否する。
一実施形態において、有効なユーザは、顔登録の過程を介して自身の顔を電子装置120に予め登録することができ、電子装置120は、格納装置又はクラウド記憶媒体(cloud storage)に当該の有効なユーザを識別するための情報を格納することができる。例えば、有効なユーザの顔映像又は当該の顔映像から抽出された顔特徴が有効なユーザの登録情報として格納される。
一実施形態によれば、上記の顔認証のような生体認証過程において、ライブネス検査(liveness test)が実行される。生体認証結果が決定される以前又は以後にライブネス検査が実行されてもよい。又は、生体認証過程とライブネス検査過程が共に実行されてもよい。ライブネス検査は、検査対象のオブジェクトが生きているオブジェクトであるか否かを検査するものとして、認証手段の真偽を判断するためのものである。例えば、ライブネス検査は、カメラ130を用いて撮影された映像に示された顔が人の本物の顔(genuine face)であるか、又はそうでなければフェイクの顔(fake face)であるか否かを検査する。ライブネス検査は、生きていないオブジェクト(例えば、フェイク手段として使用された写真、紙、動画及び模型など)と生きているオブジェクト(例えば、人の本物の顔など)との間を区別するために用いられる。
図2は、一実施形態に係るフェイクの顔210と本物の顔220の例示を示す。電子装置120は、ライブネス検査を介して本物のユーザの顔が撮影された検査対象映像から本物の顔220を識別することができる。また、電子装置120は、ライブネス検査を介してスマートフォンスクリーンやPCスクリーンに表示されたユーザの顔、写真に示されたユーザの顔、紙にプリンティングされたユーザの顔、ユーザの顔をモデリングした模型などが撮影された検査対象映像からフェイクの顔210を区別することができる。
有効でないユーザは、スプーフィング技術(spoofing techniques)を用いてユーザ認証システムの誤認証(false acceptance)を誘発するための試みを行う。例えば、顔認証において、有効でないユーザは、誤認証を誘発するために、有効なユーザの顔が示されたカラー写真、動画又は有効なユーザの顔の形状を描写した模型をカメラ130に提示する可能性がある。ライブネス検査は、このような写真、動画、マスク又は模型のような代替物を用いた認証の試み(言い換えれば、スプーフィング攻撃)を取り除いて誤認証を防止する役割を果たす。ライブネス検査の結果、認証対象は生きていないオブジェクトであると判断された場合、登録されている対象と比較して一致するか否かを判断するユーザ認証ステップに移動しないか、又は、ユーザ認証の結果とは関係なく、最終的にユーザ認証が失敗したものと決定される。
再び図1を参照すると、電子装置120は、実施形態によりライブネス検査及び生体認証のいずれか1つのみを行ったり、又は、ライブネス検査及び生体認証の全てを行ってもよい。電子装置120は、例えば、スマートフォン、ウェアラブル機器、タブレットコンピュータ、ネットブック、ラップトップ、デスクトップ、PDA(personal digital assistant)、セットトップボックス、家電機器、生体ドアロック、セキュリティー装置又は車両始動装置などであってもよい。
一実施形態に係るライブネス検査過程において、電子装置120は、カメラ130によってキャプチャーされた映像に示された様々な要素を総合的に考慮する。例えば、電子装置120は、キャプチャーされた映像に示された全体の顔の形状(shape)情報、部分の顔のテクスチャ(texture)情報、及びコンテキスト情報のうち少なくとも1つを考慮して、検査対象であるオブジェクトが生きているか否かを決定することができる。オブジェクトが遠距離にあるとき、撮影された映像には、オブジェクトがディスプレイ装置の画面であるか又は紙であるかに対する手掛かりが含まれることがある。例えば、ディスプレイ装置又は紙を持っているユーザの手が映像に示され、これはオブジェクトがフェイクであると判断できる手掛かりになり得る。コンテキスト情報を考慮することで、このようなフェイクの際にも状況を効率よく検査することができる。また、全体の顔の形状情報を用いて、光の反射及び形状の歪みなどがライブネス検査結果に考慮され得る。例えば、フェイク手段の1つである写真又は紙の光反射は、人の本物の顔とは異なり、写真又は紙の曲げ又はしわによって形の歪みが発生する可能性がある。このような要素を考慮してライブネス検査が行われる。そして、テクスチャ情報を用いて、人の皮膚と紙/ディスプレイ装置の画面の間を区分することのできる微細なテクスチャの差が考慮され得る。そのため、電子装置120は、様々なレベルのライブネス判断要素を総合的に考慮することで、ライブネス検査の正確度を向上させ、ライブネス検査を強靭に行うことができる。
上記のようなライブネス検査過程や顔認証過程でニューラルネットワークを用いることができる。ニューラルネットワークがライブネス検査過程で用いられる場合、ニューラルネットワークは、入力されたデータに基づいて検査対象が本物の顔又はフェイクの顔に該当する数値、確率値、又は特徴値を示すライブネススコアを提供することができる。ニューラルネットワークが顔認証の過程において用いられる場合、ニューラルネットワークは、入力されたデータに基づいて特徴値を提供することができる。
上記のようなニューラルネットワークは、学習(training)過程を介してニューラルネットワークを形成するパラメータが決定される。学習過程においては、複数の学習データと各学習データに対応する好ましい目的値(desired value)が存在する。学習過程において、ニューラルネットワークは、学習データが入力され、パラメータに基づいた算出過程を介して学習データに対応する結果値を出力する。出力された結果値と目的値との間の差による損失が算出され、当該損失が減少するようにニューラルネットワークを構成するパラメータを調整することで、ニューラルネットワークが学習される。複数の学習データのそれぞれに対してこの過程を繰り返し行うことで、ニューラルネットワークのパラメータは次第に好ましい方向に調整されることができる。
学習過程では、一般的にニューラルネットワークが様々なケースを学習するよう、学習データを多様に構成するが、学習データを介して全てのケースを取り扱うには限界がある。そのため、実際にライブネス検査や顔認証においては、学習過程で学習されていないケース及び珍しく学習されたケース(以下、「コーナーケース(corner case)」と称する)を処理しなければならない場合が発生することがある。このような場合、当該コーナーケースに対する学習が十分に進行されていないめ、コーナーケースに対する処理結果の正確度は低くなる。
また、コーナーケースに該当する学習データは、一般的なケースに該当する学習データに比べて相対的にその数が少なく、場合に応じて、コーナーケースに該当する学習データで学習を向上する場合、ニューラルネットワークの性能が低下する問題が生じ得る。コーナーケースに該当する学習データまで実際の学習過程において用いる場合、学習データのデータ変動が大きくなり、ニューラルネットワークが目的とする結果値を出力するよう学習させることが困難になりかねない。
以下で説明する実施形態によれば、上記のようなコーナーケースに対してライブネス検査又は顔認証が実行されても、コーナーケースのタイプに対応する前処理過程を介してコーナーケースをニューラルネットワークの学習過程において多く学習されたケースに切り替える過程を行うことで、コーナーケースへ強靭にライブネス検査及び顔認証を行うことができ、コーナーケースに対する処理結果の正確度を改善させることができる。
図3は、一実施形態に係るライブネス検査方法の動作を説明するためのフローチャートである。ライブネス検査方法は、顔認証装置によって実行される。
図3を参照すると、ステップS310において、顔認証装置は、入力映像から顔領域を検出する。入力映像は、顔認証装置に入力される映像であり、ライブネス検査の対象となる映像である。入力映像は、例えば、デジタルスチールカメラ、ビデオカメラのような映像取得装置によって取得されてもよい。映像取得装置は、顔認証装置に含まれてもよいし、又は顔認証装置の外部に存在してもよい。
一実施形態に係る顔認証装置は、入力映像から顔領域を検出のためのニューラルネットワーク、ハール基盤のカスケードアダブースト分類器(Haar−based cascade adaboost classifier)、又はViola−Jones検出器などを用いて顔領域を検出することができる。ただし、実施形態の範囲がこれに限定されることなく、顔認証装置は、様々な顔領域検出方式を用いて入力映像から顔領域を検出することができる。例えば、顔認証装置は、入力映像から顔のランドマーク(facial landmarks)を検出し、検出されたランドマークを含むバウンディンフ(bounding)領域を顔領域として検出してもよい。
ステップS320において、顔認証装置は、顔領域の特性値(characteristics)を測定する。特性値は、顔領域の映像特徴や顔領域に示された顔オブジェクトや映像関連の特徴を示す値である。例えば、顔認証装置は、顔領域の色調(hue)、顔領域に示された顔が傾いている程度を示す顔の傾き、顔領域のホワイトバランス(white balance)、明度、ガンマ(Gamma)などの特性値を測定する。顔認証装置は、様々な特性値のうち1つ以上を測定する。
顔領域の色調、ホワイトバランス、明度、ガンマなどの特性値は、映像の画質を評価する映像画質評価方式などを用いて測定される。
顔の傾きの場合、顔認証装置は、顔領域において左眼、右眼、及び両側の口元に対応する特徴点を検出し、検出された特徴点に基づいて顔の傾きを測定する。一実施形態において、顔認証装置は、左眼及び右眼の特徴点の間の第1中間点と、両側の口元に対応する特徴点の間の第2中間点を経由する直線と基準線(例えば、垂直線又は水平線)がなしている角度に基づいて顔の傾きを測定する。
ステップS330において、顔認証装置は、測定された特性値が条件を満たしているか否かを判断する。一実施形態において、顔認証装置は、入力映像の顔領域に対して算出された特性値がニューラルネットワーク基盤のライブネス検査モデルの学習に利用された顔映像の特性値範囲に含まれているか否かを判断する。学習に利用された顔映像は、各々に対応する特性値(又は、特徴値)を有し、当該顔映像の特性値に基づいて特性値範囲が決定される。特性値範囲は、顔映像の映像特徴値のうち最小映像特徴値と最大映像特徴値との間の範囲で定義される絶対的な範囲や、又は、顔映像の映像特徴値の分布特徴(例えば、平均と標準偏差)によって決定される統計的な範囲であり得る。統計的な範囲の場合、定義される基準により絶対的な範囲よりも広いか狭いこともある。例えば、統計的な範囲は、顔映像の特性値の平均を中心に両側にN(自然数)標準偏差の範囲を有してもよく、Nの大きさに応じて統計的な範囲は絶対的な範囲よりも狭くてもよく、広くてもよい。
一実施形態では、特性値が顔領域の色調である場合、顔認証装置は、色調のR(red)、G(green)、B(blue)要素のうちの1つ以上が予め設定された範囲に含まれているか否かを判断する。特性値が顔の傾きである場合、顔認証装置は、顔の傾きが予め設定された顔の傾き範囲内に含まれているか否かを判断する。特性値がホワイトバランス、明度、又はガンマである場合、顔認証装置は、当該特性値が予め設定された範囲内に含まれているか否かを判断する。上記の条件は、ライブネス検査の前に設定された条件であってもよく、実施形態により当該条件は中間に変更されてもよい。
顔領域の特性値が条件を満たしていない場合、ステップS340において、顔認証装置は、顔領域の特性値を調整する。一実施形態において、顔認証装置は、入力映像の顔領域に対して測定される特性値がライブネス検査モデルの学習に利用された顔映像の特性値範囲に含まれるよう、顔領域の特性値を調整する。ここで、特性値範囲は、絶対的な範囲又は統計的な範囲であり得る。顔領域の特性値が当該の特性値範囲に含まれていないことは、現在のライブネス検査対象である入力映像がコーナーケースであることを意味する。この場合に、顔認証装置は、入力映像の顔領域の特性値が学習に利用された顔映像の特性値範囲に含まれるよう顔領域に前処理を行うことで、ライブネス検査結果の正確度を高めることができる。
一実施形態では、測定された顔領域の色調が予め設定された範囲に含まれていない場合、顔認証装置は、顔領域の色調を予め設定された範囲内に含まれている色調に補正することができる。顔認証装置は、顔領域に色調補正モデルを適用することで顔領域の色調を補正し得る。色調補正モデルは、例えば、顔領域の色調を学習映像が有する平均色調に切り替える機能を行う。色調補正によって顔領域の色分布(RGB成分の分布)が学習映像の色分布と同様に変わり得る。
異なる例として、測定された顔の傾きが予め設定された範囲に含まれていない場合、顔認証装置は顔の傾きを補正してもよい。顔認証装置は、測定された顔の傾きに基づいて入力映像の顔領域を回転させることで顔の傾きを補正することができる。顔認証装置は、顔の傾きが予め設定された範囲内に含まれるよう、顔領域を特定の角度だけ回転させることができる。
更なる例として、測定された顔領域のホワイトバランス、明度及び/又はガンマが予め設定された範囲に含まれていない場合、顔認証装置は、顔領域のホワイトバランス、明度及び/又はガンマが予め設定された範囲内に含まれるよう顔領域のホワイトバランス、明度及び/又はガンマを補正してもよい。
ステップS340で特性値が調整された場合、ステップS350において、顔認証装置は、特性値が調整された顔領域に基づいてライブネス検査を行う。ステップS330で顔領域の特性値が当該条件を満たすものと判断された場合、顔認証装置は、特性値を調整する過程を行うことなく、ステップS310から検出された顔領域に基づいてライブネス検査を行うことができる。
上記の実施形態で説明されたライブネス検査モデルは、例えば、入力データに基づいて内部パラメータによって算出された値を出力するニューラルネットワークであってもよい。ライブネス検査モデルは、入力されたデータに基づいて検査対象である顔オブジェクトが本物の顔又はフェイクの顔に該当する数値、確率値、又は特徴値を示すライブネス値を提供することができる。ライブネス値は、オブジェクトのライブネスを決定するために基準となる値である。ライブネス検査モデルは、例えば、深度畳み込みニューラルネットワーク(Deep Convolutional Neural Network;DCNN)モデルに基づいてもよい。DCNNモデルは、畳み込みレイヤ(convolution layer)、プーリングレイヤ(pooling layer)及び全結合レイヤ(fully connected layer)を含み、各レイヤによって実行される演算過程に基づいて、ライブネス検査モデルに入力される映像情報からライブネスの判断のための情報を提供する。なお、映像情報は、映像に含まれたピクセルのピクセル値(例えば、カラー値及び/又は明度値)である。上記のDCNNモデルは一実施形態に過ぎず、ライブネス検査モデルは、DCNNモデル以外の構造のニューラルネットワークモデルに基づいてもよい。
一実施形態において、顔認証装置は、検出された顔領域に対応する第1映像に基づいて第1ライブネス値を決定することができる。第1映像の映像情報が第1ライブネス検査モデルに入力され、第1ライブネス検査モデルは、第1映像の映像情報に対応する第1ライブネス値を出力する。第1映像は、検出された全体の顔領域の形状情報を含み、第1映像に基づいて決定された第1ライブネス値は、フェイク手段を区別するために用いられる光反射及び形状の歪み特性を反映する。
顔認証装置は、検出された顔領域の部分の顔領域に対応する第2映像に基づいて第2ライブネス値を決定する。部分の顔は、検出された顔領域内でより小さい領域を抽出することで取得される。部分の顔領域として抽出される領域は、検出された顔領域内で任意に決定されてもよいし、又は検出された顔領域の中心を基準にして予め決定された大きさの領域が部分の顔領域として抽出される。
第2映像の映像情報が第2ライブネス検査モデルに入力され、第2ライブネス検査モデルは、第2映像の映像情報に対応する第2ライブネス値を出力する。第2映像は、部分の顔領域に示されたテクスチャ情報を含み、第2映像に基づいて決定された第2ライブネス値は、フェイク手段を区別するために用いられる微細なテクスチャの差異の特性を反映することができる。
顔認証装置は、入力映像の全体領域に対応する第3映像に基づいて第3ライブネス値を決定する。第3映像に対する映像情報が第3ライブネス検査モデルに入力され、第3ライブネス検査モデルは、入力映像の全体領域に対応する第3ライブネス値を出力する。入力映像に基づいて決定された第3ライブネス値は、フェイク手段を区別するために用いられるコンテキスト特性を反映する。
上記の実施形態において、第1、第2及び第3ライブネス値は、検査対象のライブネスを判断するための基準となる値であり、第1、第2及び第3ライブネス値は、各々個別のライブネス検査モデルによって決定される。また、上記の実施形態において、顔領域の特性値が調整された場合、特性値の調整された顔領域が反映された第1、第2及び第3映像の各々に基づいて、第1、第2及び第3ライブネス値が決定されることができる。
他の実施形態によれば、第1、第2及び第3ライブネス値は、1つのライブネス検査モデルによって決定されてもよい。例えば、第1映像の映像情報、第2映像の映像情報、及び入力映像の全体領域に対する映像情報が単一のライブネス検査モデルに入力され、単一のライブネス検査モデルの1つ以上の出力レイヤから第1ライブネス値、第2ライブネス値、及び第3ライブネス値が出力されてもよい。
顔認証装置は、第1ライブネス値、第2ライブネス値、及び第3ライブネス値に基づいて検査対象のライブネスの有無を決定する。一実施形態によれば、顔認証装置は、第1ライブネス値、第2ライブネス値、及び第3ライブネス値のすべてに基づいて最終ライブネス値を決定することができる。例えば、顔認証装置は、1ライブネス値、第2ライブネス値、及び第3ライブネス値の合計又は平均値を最終ライブネス値として決定する。異なる例として、顔認証装置は、第1ライブネス値、第2ライブネス値、及び第3ライブネス値のうちの1つ以上に加重値を適用し、加重値の適用結果(例えば、加重合計(weighted sum))に基づいて最終ライブネス値を決定してもよい。加重値は、例えば、予め決定された定数であってもよく、1ライブネス値、第2ライブネス値、及び第3ライブネス値の各々に適用される加重値もそれぞれ異なってもよい。異なる例として、加重値は、特定の条件(例えば、検査対象までの距離、映像品質、顔領域の大きさ、顔領域に示された顔のポーズ、顔領域の位置、顔領域内の閉塞領域の存在有無、又は顔領域の照明状態など)に基づいて決定される条件加重値であってもよい。
他の実施形態によれば、顔認証装置は第1ライブネス値、第2ライブネス値、及び第3ライブネス値のうちの1つ以上に基づいて最終ライブネス値を決定してもよい。例えば、最終ライブネス値は、第1ライブネス値、第2ライブネス値、第3ライブネス値又は、これらのいずれかの組合せにより決定されてもよい。
顔認証装置は、最終ライブネス値が予め設定された条件を満たす否かに基づいて、検査対象のライブネスの有無を決定する。例えば、顔認証装置は、最終ライブネス値が予め設定された閾値よりも大きい場合、検査対象がライブネスを有する(検査対象が本物(genuine))ものと決定し、最終ライブネス値が当該の閾値以下である場合には、検査対象がライブネスを有しない(検査対象がフェイク)ものと決定する。
顔認証装置は、オブジェクトに対するライブネスの検査結果に応答して制御動作を行うことができる。一実施形態では、検査対象が生きている本物のオブジェクトであると最終決定された場合、顔認証装置は、ユーザ認証手続の実行を要求するための制御信号を生成する。これとは反対に、オブジェクトが生きている本物のオブジェクトでないフェイクのオブジェクトであると最終決定された場合、顔認証装置は、ユーザ認証過程の実行を要求せず、ユーザのアクセスを遮断するための制御信号を生成することができる。
図4は、一実施形態に係る顔認証方法の動作を説明するためのフローチャートである。顔認証方法は顔認証装置によって実行される。
図4を参照すると、ステップS410において、顔認証装置は、入力映像から顔領域に対する現在の顔映像を抽出する。顔認証装置は、図3に示すステップS310のように入力映像から顔領域を検出し、検出された顔領域に対する映像である現在の顔映像を取得する。
ステップS420において、顔認証装置は、現在の顔映像の現在の映像特徴値を算出する。現在の映像特徴値は、現在の顔映像が有する特性値に対応する。一実施形態において、顔認証装置は、現在の顔映像の色調値、現在の顔映像に示された顔が傾いている程度を示す顔の傾き及び/又は現在の顔映像に示された顔領域のホワイトバランスなどの映像特徴値を算出する。
ステップS430において、顔認証装置は、現在の映像特徴値が定義された条件を満たしているか否かを判断する。一実施形態において、顔認証装置は、現在の映像特徴値と、ニューラルネットワークの学習に使用された複数の顔映像の映像特徴値に基づいた範囲とを比較し、現在の映像特徴値が当該範囲に含まれているか否かを判断する。ここで、ニューラルネットワークは、入力映像に示された顔オブジェクトを認証するために用いられるニューラルネットワークや、顔オブジェクトのライブネスを検査するために用いられるニューラルネットワークであり得る。
学習に使用された複数の顔映像の映像特徴値に基づいた範囲は、図3を参照して説明された特性値範囲に対応し、実施形態により絶対的な範囲又は統計的な範囲として定義される。絶対的な範囲の場合、学習に利用された顔映像の映像特徴値のうち、最小映像特徴値と最大映像特徴値によって範囲の大きさが決定される。統計的な範囲の場合、学習に利用された顔映像の映像特徴値の平均と標準偏差により範囲の大きさが決定される。例えば、統計的な範囲は、当該平均を中心に、両側にN(自然数)標準偏差の範囲を有するものとして定義される。
現在の映像特徴値が定義された条件を満たしていない場合、例えば、現在の映像特徴値が当該範囲から離脱される場合(すなわち、当該範囲に含まれていない場合)、ステップS440において、顔認証装置は、現在の顔映像の映像特徴値が当該範囲に含まれるように現在の顔映像を調整する。一実施形態において、現在の顔映像の色調値が範囲から離脱している場合、顔認証装置は、現在の顔映像の色調値が当該範囲内に含まれるように現在の顔映像の色調値を補正する。他の実施形態において、現在の顔映像に示された顔オブジェクトの顔の傾きが当該範囲から離脱されている場合、顔認証装置は、顔の傾きが当該範囲に含まれるように現在の顔映像の顔領域を回転させてもよい。更なる実施形態として、現在の顔領域のホワイトバランスが当該範囲から離れている場合、顔認証装置は、現在の顔領域のホワイトバランスが当該範囲に含まれるように現在の顔映像のホワイトバランスを補正する。
ステップS450において、顔認証装置は顔認証結果を決定する。ステップS440が実行されて現在の顔映像が調整された場合、顔認証装置は調整された現在の顔映像をニューラルネットワークに入力させることができる。もし、ステップS440が実行されていなければ、顔認証装置は、ステップS410で抽出した現在の顔映像をニューラルネットワークに入力させる。ニューラルネットワークは、入力された情報に対応する特徴値を出力する。顔認証装置は、ニューラルネットワークから取得した特徴値と予め登録された有効なユーザの特徴値に類似するか否かを判断し、その類似する程度である類似度が閾値よりも大きければ、顔認証が成功したと決定する。当該類似度が閾値以下である場合、顔認証装置は、顔認証が失敗したと決定する。予め登録された有効なユーザの特徴値も当該ニューラルネットワークを介して決定され得る。
図5は、一実施形態に係る顔認証装置の動作を説明するための図である。
図5を参照すると、顔認証装置500は、ライブネス検査及び/又は顔認証を行う。顔認証装置500は、顔領域検出部510、前処理部520、及び認証部550を含む。顔領域検出部510は入力映像から顔領域を検出する。顔領域検出部510は、例えば、カスケードアダブースト分類器、Viola−Jones検出器などを用いて顔領域を検出することができる。
前処理部520は、ライブネス検査の結果正確度を高めるための前処理過程を行う。前処理部520は、特性値測定部530及び特性値調整部540を含む。特性値測定部530は、顔領域の特性値(映像特徴値)を測定する。例えば、特性値測定部530は、顔領域の色調、ホワイトバランス、明度、ガンマ、顔領域に示された顔の傾きなどを測定する。
特性値調整部540は、特性値測定部530によって測定された特性値が特定の条件を満たしているか否かを判断し、特性値が当該条件を満たしていない場合には、特性値が当該条件を満たすように顔領域の特性値を調整する。一実施形態では、特性値調整部540は、測定された特性値がニューラルネットワークの学習に利用された顔映像の特性値範囲に含まれているか否かを判断する。特性値調整部540は、入力映像の顔領域に対して測定される特性値がニューラルネットワークの学習に利用された顔映像の特性値範囲に含まれるように、顔領域の特性値を調整する。
例えば、顔領域の色調、ホワイトバランス、明度及び/又はガンマの特性値が予め設定された範囲内に含まれていない場合、特性値調整部540は、当該特性値が上記の範囲内に含まれるように顔領域の特性値を調整する。異なる例として、顔の傾きが予め設定された範囲に含まれていない場合、特性値調整部540は、顔の傾きが当該の範囲に含まれるように顔領域を回転させてもよい。特性値測定部530が様々な特性値を測定し、測定された特性値のうち1つ以上が条件を満たしていない場合、特性値調整部540は、当該条件を満たさない1つ以上の特性値を調整することができる。
上記のように特性値が調整された後、認証部550は、特性値が調整された顔領域に基づいて検査対象に対してライブネス検査及び/又は顔認証を行い、その実行結果を提供することができる。
例えば、認証部550は、ニューラルネットワーク基盤のライブネス検査モデルを用いてライブネス値を決定し、ライブネス値に基づいて検査対象のライブネスの有無を決定してもよい。ライブネス検査モデルには、特性値が調整された顔領域の情報(例、ピクセル値)が入力され、ライブネス検査モデルは、入力された情報に対応するライブネス値を出力する。認証部550は、当該ライブネス値と閾値とを比較し、検査対象のライブネス検査結果を決定する。特性値測定部530によって測定された特性値が特定の条件を満たす場合、例えば、測定された特性値が定義された特性値範囲に含まれる場合、特性値調整部540は、当該の特性値を調整する過程を実行せず、認証部550は、顔領域検出部510によって検出された顔領域に基づいてライブネス検査を行う。
一実施形態では、ライブネス検査結果、検査対象が本物のオブジェクトであると決定された場合、顔認証が実行される。特性値測定部530によって測定された特性値が特定の条件を満たしていない場合、例えば、当該測定された特性値が定義された特性値範囲に含まれていない場合、認証部550は、特性値調整部504によって特性値の調整された顔領域を特徴値を抽出するためのニューラルネットワークに入力させることができる。特性値測定部530によって測定された特性値が特定の条件を満たす場合、例えば、当該測定された特性値が定義された特性値範囲に含まれている場合、認証部550は、特性値調整の過程を有しない顔領域を特徴値を抽出するためのニューラルネットワークに入力させることができる。
認証部550は、当該ニューラルネットワークから取得した特徴値と予め登録された有効なユーザの特徴値とを比較し、2つの特徴値の間の類似度が閾値よりも大きければ、顔認証が成功したと決定する。当該の類似度が閾値以下であれば、顔認証は失敗したと決定される。
前処理部520は、上のような前処理過程を介してライブネス検査及び/又は顔認証で用いられるニューラルネットワークの学習過程において学習されていないか、又は十分に学習されていないコーナーケースを学習過程において十分に学習されたケースに切り替えることで、コーナーケースに対する処理正確度を高めることができる。コーナーケースに対応する学習データは、存在していないか、学習データの量が少なくてニューラルネットワークを学習させ難いこともある。しかし、上記のような前処理部520の前処理動作により、ニューラルネットワークの基本認識性能を保持しながらも、コーナーケースへ強靭にライブネス検査及び/又は顔認証を行うことができる。
図6は、一実施形態に係る絶対的な範囲と統計的な範囲の一例を説明するための図である。
入力映像に示された顔領域がライブネス検査や顔認証に適するか否かを判断するために、予め定義された範囲が用いられる。当該範囲は、ライブネス値や特徴値を取得するために用いられるニューラルネットワークの学習に使用された複数の顔映像(以下、「学習映像」という)の映像特徴値が有する範囲に対応する。それぞれの学習映像は対応する映像特徴値を有し、学習映像の映像特徴値の分布に基づいて上記の範囲が決定される。入力映像の映像特徴値が当該範囲から離脱する場合、すなわち、映像特徴値が当該範囲に含まれていない場合、入力映像の映像特徴値が当該範囲に含まれるように入力映像を調整する前処理過程が実行される。
一実施形態において、当該範囲は、学習映像の映像特徴値のうち最小映像特徴値と最大映像特徴値との間の範囲に定義される絶対的な範囲であり得る。他の実施形態において、当該範囲は、学習映像の映像特徴値の分布特徴(例えば、平均と標準偏差)によって決定される統計的な範囲であり得る。
図6を参照すると、学習映像の映像特徴値の分布グラフ600の一例が図示されている。絶対的な範囲の場合、映像特徴値の分布において、最小映像特徴値と最大映像特徴値との間の範囲である範囲R5に該当する。統計的な範囲の場合、実施形態により多様に統計的な範囲の大きさが決定される。例えば、統計的な範囲は、学習映像の映像特徴値の平均mを中心に両側に1標準偏差σの範囲を示す範囲R1、平均mを中心に両側に2標準偏差の範囲を示す範囲R2、平均mを中心に両側に3標準偏差の範囲を示す範囲R3、又は平均mを中心に両側に4標準偏差の範囲を示す範囲R4である。
図7は、一実施形態に係る色調を調整する前処理過程の一例を説明するための図である。
図7を参照すると、以上分の色調を有する入力映像の顔領域710が一例として図示されている。特性値測定部530は、顔領域710の色調を測定する。例えば、特性値測定部530は、顔領域710のG(Green)カラー要素に対するB(blue)カラー要素の比率に基づいて色調に対する特性値を測定する。特性値調整部540は、測定された色調が特定の範囲(例えば、閾値範囲)内に含まれているか否かを判断する。
特性値が当該閾値範囲に含まれていない場合、特性値調整部540は、顔領域710に対して前処理過程を行う。例えば、特性値調整部540は、顔領域710に色調補正モデルを適用することで、顔領域710の色調を当該の閾値範囲に含まれる色調に補正することを介して、前処理過程が実行された顔領域720を取得することができる。認証部550は、前処理過程が実行された顔領域720に基づいてライブネス検査及び/又は顔認証を行うことができる。
図8は、一実施形態に係る顔の傾きを調整する前処理過程の一例を説明するための図である。
図8を参照すると、以上分の顔の傾きを有する入力映像の顔領域810が一例として図示されている。顔領域810において、顔の傾きは、時計まわりに特定の角度だけ傾いている。特性値測定部530は、顔領域810が入力されれば、顔領域810で顔の傾きを測定することができる。例えば、特性値測定部530は、顔領域810で左眼、右眼、及び両側の口元に対応する特徴点を検出し、左眼及び右眼の特徴点の間の第1中間点と両側の口元に対応する特徴点の間の第2中間点を経由する直線と基準線(例えば、垂直線又は水平線)がなしている角度に基づいて顔の傾きを測定することができる。
特性値調整部540は、測定された顔の傾きが特定の範囲(例えば、閾値範囲)内に含まれているか否かを判断する。顔の傾きが当該範囲に含まれていない場合、特性値調整部540は顔領域810の顔の傾きを調整する。特性値調整部540は、顔の傾きが上記の範囲内に含まれるように顔領域810を特定の角度だけ回転させることで、前処理過程が実行された顔領域820を取得することができる。ライブネス認証部550は、前処理過程が実行された顔領域820に基づいてライブネス検査及び/又は顔認証を行う。
図9A及び図9Bは、一実施形態に係るライブネス検査方法の一例を説明するための図である。
図9Aを参照すると、検査対象が示された入力映像910から全体の顔領域920が検出され、全体の顔領域920の一部領域を含む部分の顔領域930が決定される。全体の顔領域920に対応する第1映像925の映像情報は、第1ライブネス検査モデル940に入力され、第1ライブネス検査モデル940は、第1映像925に対応する第1ライブネス値を出力する。
一実施形態において、第1映像925は、全体の顔領域920に映像正規化(例えば、大きさ調整、アフィン変換(affine transform)など)が実行された結果映像である。部分の顔領域930に対応する第2映像935の映像情報は、第2ライブネス検査モデル950に入力され、第2ライブネス検査モデル950は、第2映像935に対応する第2ライブネス値を出力する。一実施形態において、第2映像935は、部分の顔領域930に映像正規化が実行された結果映像である。入力映像910の全体領域に対応する第3映像915の映像情報は、第3ライブネス検査モデル960に入力され、第3ライブネス検査モデル960は、第3映像915に対応する第3ライブネス値を出力する。ここで、第3映像915は、入力映像910と同一であるか、又は映像910に映像正規化が実行された映像であってもよい。
上記の実施形態において、顔領域の特性値が特定の条件を満たすように顔領域の特性値を調整する前処理過程が実行され、当該の前処理過程が実行された顔領域が反映された第1、第2及び第3映像のそれぞれに基づいて第1、第2及び第3ライブネス値が決定されることができる。
ライブネス決定部970は、第1ライブネス値、第2ライブネス値、及び第3ライブネス値に基づいて最終ライブネス値を決定し、最終のライブネス値が予め設定された条件を満たす否かに基づいて、検査対象のライブネスの有無を決定する。ここで、最終ライブネス値は、例えば、第1ライブネス値、第2ライブネス値、及び第3ライブネス値の合計(sum)、平均、又は加重合計であってもよい。
図9Aに示された第1ライブネス検査モデル940、第2ライブネス検査モデル950、及び第3ライブネス検査モデル960は、実施形態により図9Bに示すように、1つのライブネス検査モデル980に実現され得る。ここで、第1映像925の映像情報、第2映像935の映像情報、及び第3映像915の映像情報は、ライブネス検査モデル980の1つ以上の入力レイヤに入力される。例えば、第1映像925の映像情報、第2映像935の映像情報、及び第3映像915の映像情報が互いに異なる入力レイヤに入力されてもよいし、又は第1映像925の映像情報、第2映像935の映像情報、及び第3映像915の映像情報が互いに結合して1つの入力レイヤに入力されてもよい。ライブネス検査モデル980は、入力された映像情報に基づいて第1映像925、第2映像935、及び第3映像915のそれぞれに対応するライブネス値を出力し、ライブネス決定部990は、当該ライブネス値が予め設定された条件を満たすか否かに基づいて、検査対象のライブネスの有無を決定することができる。
図10は、一実施形態に係る顔認証装置の構成を示す図である。
顔認証装置1000は、入力映像に示されたオブジェクトに対する顔認証過程を行う。顔認証装置1000は、顔認証過程でライブネス検査を行い、ライブネス検査結果に基づいて顔認証結果を決定する。顔認証装置1000は、ライブネス検査や顔認証に関連して本明細書に記述されてもよいし、又は示された1つ以上の動作を行うことができ、ライブネス検査結果や顔認証結果をユーザに提供することができる。
図10を参照すると、顔認証装置1000は、1つ以上のプロセッサ1010及びメモリ1020を含む。メモリ1020は、プロセッサ1010に接続され、プロセッサ1010によって実行可能な命令、プロセッサ1010が演算するデータ又はプロセッサ1010によって処理されたデータを格納する。
プロセッサ1010は、図1〜図9を参照して説明されたライブネス検査及び/又は顔認証に関連する1つ以上の動作を行う。一実施形態において、プロセッサ1010はライブネス検査及び/又は顔認証において、それぞれの映像特徴値を有する複数の顔映像で学習されたネットワークを用いることができる。ニューラルネットワークは、入力映像に示された顔オブジェクトのライブネスを検査するために利用されてもよいし、顔オブジェクトを認証するために用いてもよい。
ライブネス検査の場合、プロセッサ1010は、ライブネス検査の対象となる入力映像から顔領域を検出し、顔領域の特性値を測定する。例えば、プロセッサ1010は、顔領域の色調、ホワイトバランス、明度、ガンマ、顔領域に示された顔の傾きなどの特性値を測定する。
プロセッサ1010は、測定された特性値が条件を満たしているか否かを判断し、特性値が当該条件を満たしていない場合、特性値を調整する前処理過程を行う。例えば、顔領域の色調、ホワイトバランス、明度及び/又はガンマの特性値が予め設定された範囲内に含まれていない場合、プロセッサ1010は、当該の特性値が上記の範囲内に含まれるように顔領域の特性値を調整することができる。異なる例として、顔の傾きが予め設定された範囲に含まれていない場合、プロセッサ1010は、顔の傾きが当該範囲に含まれるように顔領域を回転させてもよい。その後、プロセッサ1010は、特性値が調整された顔領域に基づいてライブネス検査を行うことができる。
顔領域の特性値が当該条件を満たすと判断された場合、プロセッサ1010は、特性値を調整する過程なしに、入力映像から検出された顔領域に基づいてライブネス検査を行うことができる。
一実施形態において、プロセッサ1010は、学習されたニューラルネットワークに基づいたライブネス検査モデルを用いてライブネス値を取得し、取得したライブネス値と閾値との間の比較結果に基づいてライブネス検査の結果を決定する。例えば、プロセッサ1010は、当該ライブネス値が閾値よりも大きい場合、検査対象が本物のオブジェクトであると決定し、ライブネス値が閾値以下であれば、検査対象がフェイクのオブジェクトであると決定する。
顔認証の場合、プロセッサ1010は、入力映像から顔領域に対する現在の顔映像を抽出し、現在の顔映像の現在の映像特徴値を算出する。プロセッサ1010は、当該現在の映像特徴値と、ニューラルネットワークの学習に使用された複数の顔映像の映像特徴値が有する範囲とを比較し、現在の映像特徴値が当該範囲から離脱しているか否かを決定する。
一実施形態において、上記の映像特徴値が有する範囲は、ニューラルネットワークの学習に使用された複数の顔映像の映像特徴値のうち、最小映像特徴値と最大映像特徴値に基づいて決定される絶対的な範囲であり得る。絶対的な範囲の最小値は、上記の最小映像特徴値であり、当該の絶対的な範囲の最大値は、上記の最大映像特徴値である。
他の実施形態において、上記の映像特徴値が有する範囲は、ニューラルネットワークの学習に使用された複数の顔映像の映像特徴値の分布特徴に基づいて決定される統計的な範囲である。なお、分布特徴は、例えば、当該の映像特徴値の平均と標準偏差を含む。
現在の映像特徴値が当該範囲から離脱する場合、プロセッサ1010は、現在の顔映像の映像特徴値が当該範囲に含まれるように現在の顔映像を調整し、調整された現在の顔映像をニューラルネットワークに入力させることができる。ニューラルネットワークは、入力された情報に基づいて対応する特徴値を出力する。
現在の顔映像を調整することに関連して、例えば、プロセッサ1010は、現在の顔映像の色調値を算出し、算出された色調値が前記範囲から離脱するものと決定された場合、現在の顔映像の色調値が当該範囲内に含まれるように現在の顔映像の色調値を補正する。異なる例として、プロセッサ1010は、現在の顔映像に示された顔が傾いている程度を示す顔の傾きを算出し、算出された顔の傾きが当該範囲から離脱するものとして決定された場合、顔の傾きが当該範囲に含まれるように現在の顔映像の顔領域を回転させてもよい。更なる例として、プロセッサ1010は、現在の顔映像に示された顔領域のホワイトバランスを算出し、算出されたホワイトバランスが当該範囲から離脱する場合、ホワイトバランスが当該範囲に含まれるように現在の顔映像のホワイトバランスを補正してもよい。
プロセッサ1010は、ニューラルネットワークを介して取得した特徴値を予め登録された特徴値と比較し、2つの特徴値の間の類似度に基づいて顔認証結果を決定する。例えば、プロセッサ1010は、当該の類似度が閾値よりも大きい場合、顔認証が成功したと決定し、類似度が閾値以下であれば、顔認証が失敗したと決定する。
プロセッサ1010は、上記のライブネス検査や顔認証の結果に基づいて制御信号を生成することができる。例えば、プロセッサ1010は、当該の結果に応じてオブジェクトのアクセスを許容又は遮断を決定したり、オブジェクトの要求(例、特定の機能の実行要求)を拒否又は実行する制御信号を生成する。
図11は、一実施形態に係る電子装置の構成を示す図である。
図11を参照すると、電子装置1100は、入力映像に示された検査対象のライブネス検査及び/又は顔認証を行う。電子装置1100は、図1に示す電子装置120に対応し、図10に示す顔認証装置1000の機能を行うことができる。
電子装置1100は、1つ以上のプロセッサ1110、メモリ1120、カメラ1130、格納装置1140、入力装置1150、出力装置1160、及びネットワークインターフェース1170を含む。プロセッサ1110、メモリ1120、カメラ1130、格納装置1130、入力装置1150、出力装置1160、及びネットワークインターフェース1170は、通信バス1180を介して通信する。
プロセッサ1110は、ライブネス検査及び/又は顔認証を行うための機能及び命令を実行する。例えば、プロセッサ1110は、メモリ1120又は格納装置1140に格納された命令を処理する。プロセッサ1110は、図1〜図10を参照して前述した1つ以上の動作を行う。
メモリ1120は、ライブネス検査及び/又は顔認証を行うための情報を格納する。メモリ1120は、コンピュータで読み出し可能な記憶媒体又はコンピュータ読み出し可能な格納装置を含む。メモリ1120は、プロセッサ1110によって実行するための命令とライブネス検査の実行に必要な情報を格納する。
カメラ1130は、ライブネス検査及び/又は顔認証の対象が示された静止画、ビデオ映像、又は、これらの全てを取得する。カメラ1130によって取得された映像は、本明細書で説明された入力映像に対応する。
格納装置1140は、コンピュータで読み出し可能な記憶媒体又はコンピュータ読み出し可能な格納装置を含む。一実施形態によれば、格納装置1140は、メモリ1120よりもさらに多くの量の情報を格納し、情報を長期間格納する。例えば、格納装置1140は、磁気ハードディスク、光ディスク、フラッシュメモリ、又は、フロッピーディスクを含む。
入力装置1150は、触覚、ビデオ、オーディオ又はタッチ入力によってユーザから入力を受信する。例えば、入力装置1150は、キーボード、マウス、タッチスクリーン、マイクロホン、又は、ユーザから入力を検出し、検出された入力を電子装置1100に伝達できる任意の他の装置を含む。
出力装置1160は、視覚的、聴覚的又は触覚的なチャネルを介してユーザに電子装置1100の出力を提供する。出力装置1160は、例えば、ディスプレイ、タッチスクリーン、スピーカ、振動発生装置、又はユーザに出力を提供できる任意の他の装置を含む。ネットワークインターフェース1170は、有線又は無線ネットワークを介して外部装置と通信する。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの1つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成することができ、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは1つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
120、1100:電子装置
1、30、1130:カメラ
500、1000:顔認証装置
510:顔領域検出部
520:前処理部
530:特性値測定部
540:特性値調整部
550:認証部
940:第1ライブネス検査モデル
950:第2ライブネス検査モデル
960:第3ライブネス検査モデル
970、990:ライブネス決定部
980:ライブネス検査モデル
1010、1110:プロセッサ
1020、1120:メモリ
1140:格納装置
1150:入力装置
1160:出力装置
1170:ネットワークインターフェース
1180:通信バス

Claims (32)

  1. 入力映像から顔領域を検出するステップと、
    前記顔領域の特性値を測定するステップと、
    前記測定された特性値が条件を満たしていない場合、前記顔領域の特性値を調整するステップと、
    前記特性値が調整された顔領域に基づいてライブネス検査を行うステップと、
    を含むライブネス検査方法。
  2. 前記顔領域の特性値を測定するステップは、前記顔領域の色調を測定するステップを含み、
    前記顔領域の特性値を調整するステップは、前記測定された顔領域の色調が予め設定された範囲に含まれていない場合、前記顔領域の色調を前記予め設定された範囲内に含まれる色調に補正するステップを含む、請求項1に記載のライブネス検査方法。
  3. 前記補正するステップは、前記顔領域に色調補正モデルを適用することによって前記顔領域の色調を補正する、請求項2に記載のライブネス検査方法。
  4. 前記顔領域の特性値を測定するステップは、前記顔領域に示された顔が傾いている程度を示す顔の傾きを測定するステップを含み、
    前記の顔の傾きを測定するステップは、前記顔領域で、左眼、右眼、及び両側の口元に対応する特徴点を検出するステップと、
    前記検出された特徴点に基づいて前記の顔の傾きを測定するステップと、
    を含む、請求項1に記載のライブネス検査方法。
  5. 前記顔領域の特性値を調整するステップは、前記測定された顔の傾きが予め設定された範囲に含まれていない場合、前記の顔の傾きを補正するステップを含む、請求項4に記載のライブネス検査方法。
  6. 前記補正するステップは、前記測定された顔の傾きに基づいて前記顔領域を回転させることにより前記の顔の傾きを補正する、請求項5に記載のライブネス検査方法。
  7. 前記顔領域の特性値を測定するステップは、前記顔領域のホワイトバランスを測定するステップを含み、
    前記顔領域の特性値を調整するステップは、前記測定された顔領域のホワイトバランスが予め設定された範囲に含まれていない場合、前記顔領域のホワイトバランスを補正するステップを含む、請求項1に記載のライブネス検査方法。
  8. 前記測定された特性値が前記条件を満たす場合、前記特性値の調整なしに前記検出された顔領域に基づいてライブネス検査を行うステップをさらに含む、請求項1ないし請求項7のいずれか1項に記載のライブネス検査方法。
  9. 前記ライブネス検査を行うステップは、ニューラルネットワーク基盤のライブネス検査モデルを用いて前記ライブネス検査を行うステップを含む、請求項1ないし請求項8のいずれか1項に記載のライブネス検査方法。
  10. それぞれの映像特徴値を有する複数の顔映像で学習されたニューラルネットワークを用いる顔認証方法において、
    入力映像から顔領域に対する現在の顔映像を抽出するステップと、
    前記現在の顔映像の現在の映像特徴値を算出するステップと、
    前記現在の映像特徴値を、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値が有する範囲と比較するステップと、
    前記現在の映像特徴値が前記範囲から離脱する場合、前記現在の顔映像の映像特徴値が前記範囲に含まれるように前記現在の顔映像を調整するステップと、
    前記調整された現在の顔映像を前記ニューラルネットワークに入力させるステップと、
    を含む顔認証方法。
  11. 前記範囲は、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値のうち、最小映像特徴値と最大映像特徴値に基づいて決定される絶対的な範囲である、請求項10に記載の顔認証方法。
  12. 前記範囲は、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値の分布特徴に基づいて決定される統計的な範囲であり、
    前記分布特徴は、前記映像特徴値の平均と標準偏差を含む、請求項10に記載の顔認証方法。
  13. 前記統計的な範囲は、前記平均を中心に両側に1標準偏差の範囲、2標準偏差の範囲、3標準偏差の範囲、及び4標準偏差の範囲のいずれか1つを示す、請求項12に記載の顔認証方法。
  14. 前記ニューラルネットワークは、前記入力映像に示された顔オブジェクトのライブネスを検査するために用いられるニューラルネットワークである、請求項10ないし請求項13のいずれか1項に記載の顔認証方法。
  15. 前記ニューラルネットワークは、前記入力映像に示された顔オブジェクトを認証するために用いられるニューラルネットワークである、請求項10ないし請求項14のいずれか1項に記載の顔認証方法。
  16. 前記現在の映像特徴値を算出するステップは、前記現在の顔映像の色調値を算出するステップを含み、
    前記現在の顔映像を調整するステップは、前記色調値が前記範囲から離脱する場合、前記現在の顔映像の色調値が前記範囲内に含まれるように前記現在の顔映像の色調値を補正するステップを含む、請求項10に記載の顔認証方法。
  17. 前記現在の映像特徴値を算出するステップは、前記現在の顔映像に示された顔が傾いている程度を示す顔の傾きを算出するステップを含み、
    前記現在の顔映像を調整するステップは、前記の顔の傾きが前記範囲から離脱する場合、前記の顔の傾きが前記範囲に含まれるように前記現在の顔映像の顔領域を回転させるステップを含む、請求項10に記載の顔認証方法。
  18. 前記現在の映像特徴値を算出するステップは、前記現在の顔映像に示された顔領域のホワイトバランスを算出するステップを含み、
    前記現在の顔映像を調整するステップは、前記ホワイトバランスが前記範囲から離脱する場合、前記ホワイトバランスが前記範囲に含まれるように前記現在の顔映像のホワイトバランスを補正するステップを含む、請求項10に記載の顔認証方法。
  19. 請求項1ないし請求項18のいずれか1項に記載の方法を実行するための命令を格納するコンピュータで読み出し可能な記憶媒体。
  20. 1つ以上のプロセッサを含み、
    前記1つ以上のプロセッサは、
    入力映像から顔領域を検出し、
    前記顔領域の特性値を測定し、
    前記測定された特性値が条件を満たしていない場合、前記顔領域の特性値を調整し、
    前記特性値が調整された顔領域に基づいてライブネス検査を行う、
    装置。
  21. 前記1つ以上のプロセッサは、前記顔領域の色調を測定し、前記測定された顔領域の色調が予め設定された範囲に含まれていない場合、前記顔領域の色調を前記予め設定された範囲内に含まれる色調に補正する、請求項20に記載の装置。
  22. 前記1つ以上のプロセッサは、前記顔領域に示された顔が傾いている程度を示す顔の傾きを測定し、前記測定された顔の傾きが予め設定された範囲に含まれていない場合、前記の顔の傾きを補正する、請求項20に記載の装置。
  23. 前記1つ以上のプロセッサは、前記顔領域のホワイトバランスを測定し、前記測定された顔領域のホワイトバランスが予め設定された範囲に含まれていない場合、前記顔領域のホワイトバランスを補正する、請求項20に記載の装置。
  24. 前記1つ以上のプロセッサは、前記測定された特性値が前記条件を満たす場合、前記特性値の調整なしに前記検出された顔領域に基づいてライブネス検査を行う、請求項20に記載の装置。
  25. 前記1つ以上のプロセッサは、ニューラルネットワーク基盤のライブネス検査モデルを用いて前記ライブネス検査を行う、請求項20に記載の装置。
  26. それぞれの映像特徴値を有する複数の顔映像で学習されたニューラルネットワークを用いる装置において、
    1つ以上のプロセッサを含み、
    前記1つ以上のプロセッサは、
    入力映像から顔領域に対する現在の顔映像を抽出し、
    前記現在の顔映像の現在の映像特徴値を算出し、
    前記現在の映像特徴値を、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値が有する範囲と比較し、
    前記現在の映像特徴値が前記範囲から離脱する場合、前記現在の顔映像の映像特徴値が前記範囲に含まれるように前記現在の顔映像を調整し、
    前記調整された現在の顔映像を前記ニューラルネットワークに入力させる、
    装置。
  27. 前記範囲は、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値のうち、最小映像特徴値と最大映像特徴値に基づいて決定される絶対的な範囲である、請求項26に記載の装置。
  28. 前記範囲は、前記ニューラルネットワークの学習に使用された前記複数の顔映像の映像特徴値の分布特徴に基づいて決定される統計的な範囲であり、
    前記分布特徴は、前記映像特徴値の平均と標準偏差を含む、請求項26に記載の装置。
  29. 前記ニューラルネットワークは、前記入力映像に示された顔オブジェクトを認証するために用いられるニューラルネットワークである、請求項26ないし請求項28のいずれか1項に記載の装置。
  30. 前記1つ以上のプロセッサは、
    前記現在の顔映像の色調値を算出し、
    前記色調値が前記範囲から離脱する場合、前記現在の顔映像の色調値が前記範囲内に含まれるように前記現在の顔映像の色調値を補正する、請求項26に記載の装置。
  31. 前記1つ以上のプロセッサは、
    前記現在の顔映像に示された顔が傾いている程度を示す顔の傾きを算出し、
    前記の顔の傾きが前記範囲から離脱する場合、前記の顔の傾きが前記範囲に含まれるように前記現在の顔映像の顔領域を回転させる、請求項26に記載の装置。
  32. 前記1つ以上のプロセッサは、
    前記現在の顔映像に示された顔領域のホワイトバランスを算出し、
    前記ホワイトバランスが前記範囲から離脱する場合、前記ホワイトバランスが前記範囲に含まれるように前記現在の顔映像のホワイトバランスを補正する、請求項26に記載の装置。
JP2020075172A 2019-05-02 2020-04-21 ライブネス検査方法及び装置 Active JP7191061B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20190051495 2019-05-02
KR10-2019-0051495 2019-05-02
KR1020190105867A KR102570071B1 (ko) 2019-05-02 2019-08-28 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치
KR10-2019-0105867 2019-08-28

Publications (2)

Publication Number Publication Date
JP2020184331A true JP2020184331A (ja) 2020-11-12
JP7191061B2 JP7191061B2 (ja) 2022-12-16

Family

ID=70289717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075172A Active JP7191061B2 (ja) 2019-05-02 2020-04-21 ライブネス検査方法及び装置

Country Status (4)

Country Link
US (2) US11804070B2 (ja)
EP (1) EP3734503B1 (ja)
JP (1) JP7191061B2 (ja)
CN (1) CN111881429A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022208681A1 (ja) 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
WO2023210081A1 (ja) * 2022-04-25 2023-11-02 株式会社日立製作所 生体認証システムおよび認証方法
WO2024095627A1 (ja) * 2022-11-02 2024-05-10 ソフトバンク株式会社 認証装置、プログラム、及び認証方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11804070B2 (en) * 2019-05-02 2023-10-31 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
US11157811B2 (en) * 2019-10-28 2021-10-26 International Business Machines Corporation Stub image generation for neural network training
EP4332918A1 (en) * 2022-08-29 2024-03-06 Thales Dis France Sas System for liveness determination using several models

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186303A (ja) * 2007-01-30 2008-08-14 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2008191743A (ja) * 2007-02-01 2008-08-21 Omron Corp 顔認証装置
JP2012185846A (ja) * 2007-06-18 2012-09-27 Fujifilm Corp 顔検出方法
JP2013196295A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 生体情報処理装置
US20180349682A1 (en) * 2017-05-31 2018-12-06 Facebook, Inc. Face liveness detection
JP2019508801A (ja) * 2016-07-22 2019-03-28 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. なりすまし防止顔認識のための生体検知

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003289116A1 (en) * 2002-12-16 2004-07-09 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
US9460601B2 (en) * 2009-09-20 2016-10-04 Tibet MIMAR Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance
JP2012198781A (ja) * 2011-03-22 2012-10-18 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9922238B2 (en) * 2015-06-25 2018-03-20 West Virginia University Apparatuses, systems, and methods for confirming identity
KR20170050465A (ko) 2015-10-30 2017-05-11 에스케이텔레콤 주식회사 얼굴 인식 장치 및 방법
JP6271085B2 (ja) 2015-10-30 2018-01-31 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
EP3423990A1 (en) * 2016-03-02 2019-01-09 Holition Limited Locating and augmenting object features in images
US20210279316A1 (en) * 2016-07-29 2021-09-09 Trusona, Inc. Anti-replay authentication systems and methods
KR102483642B1 (ko) 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10902244B2 (en) 2017-03-27 2021-01-26 Samsung Electronics Co., Ltd. Apparatus and method for image processing
KR102324468B1 (ko) 2017-03-28 2021-11-10 삼성전자주식회사 얼굴 인증을 위한 장치 및 방법
US10565433B2 (en) 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
GB2561607B (en) * 2017-04-21 2022-03-23 Sita Advanced Travel Solutions Ltd Detection System, Detection device and method therefor
CN107480725A (zh) 2017-08-23 2017-12-15 京东方科技集团股份有限公司 基于深度学习的图像识别方法、装置和计算机设备
US11804070B2 (en) * 2019-05-02 2023-10-31 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
KR20210116966A (ko) * 2020-03-18 2021-09-28 삼성전자주식회사 타겟 트래킹 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186303A (ja) * 2007-01-30 2008-08-14 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2008191743A (ja) * 2007-02-01 2008-08-21 Omron Corp 顔認証装置
JP2012185846A (ja) * 2007-06-18 2012-09-27 Fujifilm Corp 顔検出方法
JP2013196295A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 生体情報処理装置
JP2019508801A (ja) * 2016-07-22 2019-03-28 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. なりすまし防止顔認識のための生体検知
US20180349682A1 (en) * 2017-05-31 2018-12-06 Facebook, Inc. Face liveness detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HYUNG-KEUN JEE ET AL: "Liveness Detection for Embedded Face Recognition System", WORLD ACADEMY OF SCIENCE, ENGINEERING AND TECHNOLOGY 18 2008, JPN7022001812, 31 December 2008 (2008-12-31), ISSN: 0004753760 *
伊藤 康一 他2名: "顔認証システムのためのFully Convolutional Networkを用いた生体検知手法に関", 電子情報通信学会技術研究報告, vol. 117, no. 236, JPN6022014595, 5 October 2017 (2017-10-05), JP, pages 11 - 15, ISSN: 0004753761 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022208681A1 (ja) 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
WO2023210081A1 (ja) * 2022-04-25 2023-11-02 株式会社日立製作所 生体認証システムおよび認証方法
WO2024095627A1 (ja) * 2022-11-02 2024-05-10 ソフトバンク株式会社 認証装置、プログラム、及び認証方法

Also Published As

Publication number Publication date
US11804070B2 (en) 2023-10-31
CN111881429A (zh) 2020-11-03
EP3734503A1 (en) 2020-11-04
US20200349372A1 (en) 2020-11-05
EP3734503B1 (en) 2024-05-01
JP7191061B2 (ja) 2022-12-16
US20240021014A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
KR102455633B1 (ko) 라이브니스 검사 방법 및 장치
KR102387571B1 (ko) 라이브니스 검사 방법 및 장치
JP7191061B2 (ja) ライブネス検査方法及び装置
US11030470B2 (en) Apparatus and method with liveness verification
US11023757B2 (en) Method and apparatus with liveness verification
JP7004522B2 (ja) ライブネス検査方法及び装置
KR102352345B1 (ko) 라이브니스 검사 방법 및 장치
US20240087358A1 (en) Liveness test method and apparatus and biometric authentication method and apparatus
KR20210069404A (ko) 라이브니스 검사 방법 및 라이브니스 검사 장치
JP2010262392A (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
US11514723B2 (en) Method and apparatus for determining liveness
KR102570071B1 (ko) 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치
JP2004118731A (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
WO2024042674A1 (ja) 情報処理装置、認証方法および記憶媒体
KR20200083188A (ko) 라이브니스 검출 방법 및 장치, 이를 이용한 객체 인식 방법
KR102665968B1 (ko) 블러 추정 방법 및 장치
KR102318051B1 (ko) 사용자 인증 시스템에서 여백을 포함한 얼굴영역 이미지를 이용한 라이브니스 검사방법
CN111368644B (zh) 图像处理方法、装置、电子设备及存储介质
Bagmut et al. Biometric Authentication Using Convolutional Neural Networks
KR20210001270A (ko) 블러 추정 방법 및 장치
KR20190098656A (ko) 라이브니스 검증 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

AA79 Non-delivery of priority document

Free format text: JAPANESE INTERMEDIATE CODE: A24379

Effective date: 20200908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7191061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150