JP7286208B2 - 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム - Google Patents

生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム Download PDF

Info

Publication number
JP7286208B2
JP7286208B2 JP2022521013A JP2022521013A JP7286208B2 JP 7286208 B2 JP7286208 B2 JP 7286208B2 JP 2022521013 A JP2022521013 A JP 2022521013A JP 2022521013 A JP2022521013 A JP 2022521013A JP 7286208 B2 JP7286208 B2 JP 7286208B2
Authority
JP
Japan
Prior art keywords
image
face
facial
initial
light irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022521013A
Other languages
English (en)
Other versions
JP2022551139A (ja
Inventor
▲シュアン▼ 曹
守▲鴻▼ 丁
嘉 孟
太平 姚
彦昊 葛
▲チェン▼杰 汪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022551139A publication Critical patent/JP2022551139A/ja
Application granted granted Critical
Publication of JP7286208B2 publication Critical patent/JP7286208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/63Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本願は、人工知能の分野に関し、特に生体顔検出に関する。
本願は、2020年1月17日に中国国家知識産権局に提出された、出願番号が第202010055343.3号で、出願の名称が「生体顔検出方法、関連装置、機器及び記憶媒体」である中国特許出願の優先権を主張するものであり、その全ての内容は、参照により本願に組み込まれるものとする。
生体顔検出の主な目的は、現在の顔が実際に生きている人であるか否かを判断して、偽の顔による攻撃を防ぐことである。生体顔検出は、顔認識を行う前の重要なステップである。顔認識が顔認証決済及び顔認証ドアアクセス制御などの多くの重要な分野に応用されるに伴い、偽造された顔によって攻撃を行うという顔認識における問題は日増しに深刻になっており、生体顔検出は、顔攻撃を防ぐための主要な技術的ルートである。
現在は、主に、複数枚の顔画像を生体顔検出の根拠としており、例えば、顔画像における顔がまばたき、又は口を開くなどの動作の特徴を満たすと、該画像における顔が生体の顔であると判定する。
本願の実施例に係る生体顔検出方法及び関連装置は、異なる方向の入射光を利用して顔に照射し、顔画像の法線マップ及び反射率マップを算出することができる。同時に、顔画像の三次元幾何学的情報及び表面材質情報が考慮されるため、顔画像の真実性を識別し、異なる生体顔攻撃の方法を効果的に防御することができる。
一態様では、本願の実施例に係る生体顔検出方法は、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するステップであって、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数である、ステップと、
初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するステップと、
N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成するステップであって、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、ステップと、
N個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するステップと、を含む。
別の態様では、本願の実施例に係る生体顔検出装置は、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュールであって、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
取得モジュールがさらに、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するために用いられ、N個の差分画像のうちの各差分画像は、初期顔画像及び顔画像に基づいて取得されたものである、取得モジュールと、
取得モジュールにより取得されたN個の差分画像に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュールであって、法線マップは、各画素点に対応する法線が異なるチャネルを表す画像であり、反射率マップは、各画素点に対応する反射率が異なるチャネルを表す画像である、生成モジュールと、
取得モジュールにより取得されたN個の差分画像、生成モジュールにより生成された法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュールと、を含む。
別の態様では、本願の実施例に係る電子機器は、メモリ、送受信機、プロセッサ及びバスシステムを含み、
メモリは、プログラムを記憶するために用いられ、
プロセッサは、メモリにおけるプログラムを実行することにより、上記各態様の方法を実現するために用いられ、
バスシステムは、メモリ及びプロセッサを接続することにより、メモリ及びプロセッサに通信させるために用いられる。
別の態様では、本願の実施例に係る記憶媒体は、上記各態様の方法を実行するために用いられるコンピュータプログラムを記憶するために用いられる。
別の態様では、本願の実施例に係る命令を含むコンピュータプログラム製品は、コンピュータ上で実行されると、前記コンピュータに上記各態様の方法を実行させる。
以上の技術的解決手段から分かるように、本願の実施例は、以下の利点を有する。
本願の実施例に係る生体顔検出方法は、まず初期顔画像及びN個の光照射方向に対応する顔画像集合を取得し、次に初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得し、さらにN個の差分画像及び上記N個の光照射方向に基づいて、法線マップ及び反射率マップを生成し、最後にN個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定することができる。上記方式により、異なる方向の入射光を利用して顔に照射し、顔画像の法線マップ及び反射率マップを算出することができ、法線マップには認識対象の顔の三次元幾何学的情報が含まれ、反射率マップには認識対象の顔の表面材質情報が含まれ、同時に顔画像の三次元幾何学的情報及び表面材質情報が考慮されるため、顔画像の真実性を識別し、異なる生体顔攻撃の方法を効果的に防御することができる。
本願の実施例における生体顔検出システムの1つのアーキテクチャ概略図である。 本願の実施例における生体顔検出システムの別のアーキテクチャ概略図である。 本願の実施例における生体顔検出方法の1つの概略図である。 本願の実施例における光源位置の1つの配列概略図である。 本願の実施例における端末機器が画像収集提示メッセージを表示する1つのインタフェース概略図である。 本願の実施例における顔画像集合の収集方式の1つの概略図である。 本願の実施例の画面領域の1つの概略図である。 本願の実施例における顔画像集合の収集方式の1つの概略図である。 本願の実施例のLED配列方式の1つの概略図である。 本願の実施例における顔キーポイント集合の1つの概略図である。 本願の実施例における端末機器が再収集提示メッセージを表示する1つのインタフェース概略図である。 本願の実施例における法線マップ及び反射率マップの1つの概略図である。 本願の実施例における生体検出モデルの1つの構造概略図である。 本願の実施例における生体顔検出フローの1つの概略図である。 本願の実施例におけるウェイクワード検出装置の1つの実施例の概略図である。 本願の実施例に係る端末機器に関連する携帯電話の部分構造のブロック図である。
本願の実施例に係る生体顔検出方法、関連装置、機器及び記憶媒体は、異なる方向の入射光を利用して顔に照射し、顔画像の法線マップ及び反射率マップを算出することができる。同時に、顔画像の三次元幾何学的情報及び表面材質情報が考慮されるため、顔画像の真実性を識別し、異なる生体顔攻撃の方法を効果的に防御することができる。
本願の明細書、特許請求の範囲及び上記図面における用語「第1」、「第2」、「第3」、「第4」など(存在する場合)は、類似した対象を区別するためのものであり、必ずしも特定の順序又は優先順位を説明するものではない。ここで説明した本願の実施例が、例えばここでの図示又は説明以外の順序でも実施できるように、このように使用されたデータは、適宜入れ替えてもよいことを理解されたい。また、用語「含む」及び「に対応する」並びにそれらのいかなる変形は、非排他的な包含をカバーすることを意図し、例えば、一連のステップ又はユニットを含む過程、方法、システム、製品又は機器は、明確に挙げられたステップ又はユニットに限定されず、明確に挙げられていないか又はこれらの過程、方法、システム、製品又は機器に固有の、他のステップ又はユニットを含んでもよい。
理解すべきものとして、本願に係る生体顔検出方法は、顔認識シーンに応用でき、具体的には、複数の異なる分野、例えばセキュリティ、金融及び勤怠管理などの分野に応用できる。実際の応用では、姿勢の変換、メガネの反射、光線の強弱及び表情の変化などの多くの干渉要因が普遍的に存在するため、顔認識の効果に影響を与えやすく、3Dのシリコン樹脂による顔、及び3D印刷された顔などの方式を利用して顔認識に対して攻撃を行う状況もますます深刻になっている。顔に対する生体検出は、後続の顔認識の基礎であるだけでなく、金融、セキュリティ及び勤怠管理などの分野にも広範な応用価値を有する。
本願に係る生体顔検出方法は、図1に示される環境に応用できる。図1に参照されるように、図1は、本願の実施例における生体顔検出システムの1つのアーキテクチャ概略図である。図に示すように、本願に係る方法は、タブレットコンピュータ、スマートフォン、パーソナルコンピュータ又はドアアクセス制御システムなどの端末機器に応用できる。例えば、金融分野において、生体顔検出に対する需要が存在する。ユーザーは、スマートフォンにより振替、決済又は口座情報の修正などの身分認証を行う必要がある操作を行うことができる。具体的には、スマートフォンにより第1のユーザーの複数の顔画像を収集する場合、該スマートフォンは、本願に係る生体顔検出方法を用いて、第1のユーザーの身分を認識することにより、今回の操作が第1のユーザー本人により開始されるか否かを判定することができる。また例えば、セキュリティ分野においては、セルフサービスの通関機器を利用して通関検査を行うことができる。具体的には、第2のユーザーは、セルフサービス通関機器により通関検査を行い、該セルフサービス通関機器は、本願に係る生体顔検出方法を用いて、収集された第2のユーザーの顔画像に対して生体検出を行うことにより、身分を詐称するか否かを認識することができる。また例えば、勤怠管理分野において、顔認証タイムレコーダー又は顔認証ドアアクセス制御システムに応用することができる。具体的には、第3のユーザーは、タイムカードを打刻するか又はドアアクセス制御を解除するときに当該ユーザーに対して生体顔検出を行うことにより、他人がタイムカードを打刻するか又は無関係者が身分を詐称することを防止する。ここでは、全ての応用シーンを列挙しない。
上記様々なシーンにおいて生体顔検出を行うことにより顔画像の真実性を識別するために、本願は生体顔検出方法を提供し、該方法は図2のシステムアーキテクチャに応用できる。図2に参照されるように、図2は、本願の実施例における生体顔検出システムの別のアーキテクチャ概略図である。図に示すように、本願に係る生体顔検出方法はさらにサーバに応用できる。例えば、金融分野において、生体顔検出に対する需要が存在する。第1のユーザーがスマートフォンにより振替を行うことを仮定し、スマートフォンが第1のユーザーの複数の顔画像を収集する場合、これらの顔画像をサーバに送信することができる。該サーバは、本願に係る生体顔検出方法を用いて、第1のユーザーの身分を認識することにより、今回の操作が第1のユーザーにより開始されるか否かを判定し、かつ判定結果を端末機器にフィードバックすることにより、生体顔検出を完了する。ここでは、全ての応用シーンを列挙しない。
実際の応用において、システムアーキテクチャの選択は、実際に処理しようとするデータ量などの要因に依存し得る。例えば、ドアアクセス制御システムに対して、該ドアアクセス制御システムを使用して記憶されたユーザーのデータ量が小さければ、本願の方法をドアアクセス制御機器にローカルに配置することができる。すなわちドアアクセス制御機器は、生体顔検出結果が生体顔であると決定したときに、収集された顔とドアアクセス制御機器のローカルに記憶された顔画像とを照合することにより、身分情報を決定することができる。また例えば、ネットワークバンク決済又は公安システムにとって、常に大量のユーザーデータを記憶する必要があるため、サーバにより生体顔検出結果を生成し、かつ生体顔検出結果が生体顔であると決定したときに、収集された顔とドアアクセス制御機器のローカルに記憶された顔画像とを照合することにより、身分情報を決定することができる。
ここで、図2におけるサーバは、生体顔検出を行うために用いられるサーバであり、1台のサーバ又は複数台のサーバで構成されたサーバクラスタ又はクラウドコンピューティングセンターなどであってよく、具体的には、ここではいずれも限定しない。端末機器は、図1又は図2に示されるタブレットコンピュータ、スマートフォン、パーソナルコンピュータ(personal computer、PC)及びドアアクセス制御機器であってもよく、監視機器又は顔認識機器などであってもよく、ここでは限定しない。一部の実施形態において、生体顔検出装置が配置されたクライアントは、いずれもウェブページクライアントとして表現されてもよく、アプリケーション類のクライアントとして表現されてもよく、前述の端末機器に配置される。
端末機器とサーバとの間は、無線ネットワーク、有線ネットワーク又はリムーバブル記憶媒体を介して通信することができる。ここで、上記無線ネットワークは、標準的な通信技術及び/又はプロトコルを使用する。無線ネットワークは、一般的に、インターネットであるが、いかなるネットワークであってもよく、ブルートゥース(登録商標)、ローカルエリアネットワーク(Local Area Network、LAN)、メトロポリタンエリアネットワーク(Metropolitan Area Network、MAN)、ワイドエリアネットワーク(Wide Area Network、WAN)、移動、専用ネットワーク又は仮想専用ネットワークの任意の組み合わせを含むが、これらに限定されない。いくつかの実施例において、カスタマイズ又は専用のデータ通信技術を使用して上記データ通信技術を置換するか又は補充することができる。リムーバブル記憶媒体は、ユニバーサルシリアルバス(Universal Serial Bus、USB)フラッシュディスク、リムーバブルハードディスク又は他のリムーバブル記憶媒体などであってもよい。
図2は、4つの端末機器及び1つのサーバのみを示すが、理解すべきものとして、図2における例は、本解決手段を理解するために用いられるものであり、具体的な端末機器及びサーバの数は、いずれも実際の状況に合わせて柔軟に決定されるべきである。
本願の実施例に係る人工知能に基づく生体顔検出方法は、人工知能の分野に基づくコンピュータビジョン技術(Computer Vision、CV)を用いることができる。本願に係る方法を説明する前に、まず人工知能の分野のいくつかの基礎概念を説明する。人工知能(Artificial Intelligence、AI)は、デジタルコンピュータ又はデジタルコンピュータにより制御された機械を利用して、人の知能をシミュレーションし、広く展開させ、環境を感知し、知識を取得し、かつ知識を使用して最適な結果を取得する理論、方法、技術及び応用システムである。換言すれば、人工知能は、コンピュータ科学の1つの総合的な技術であり、知能の実質を把握し、かつ人間の知能に類似する方式で反応できる新たな知能機器を製造することを意図する。人工知能とは、様々な知能機器の設計原理及び実現方法を研究することにより、機器が知覚、推論及び意思決定の機能を有するようにすることである。人工知能技術は、総合的な学科であり、幅広い分野に関し、ハードウェア面の技術もソフトウェア面の技術もある。人工知能の基礎技術は、一般的にセンサ、専用人工知能チップ、クラウド計算、分散型記憶、ビッグデータ処理技術、操作/対話システム、電気機械一体化などの技術を含む。人工知能のソフトウェア技術は、主にコンピュータビジョン技術、音声処理技術、自然言語処理技術及び機器学習/深度学習等の幾つかの方向を含む。
ここで、コンピュータビジョン技術は、どのように機器に「見せる」かを研究する科学であり、さらに言えば、人の目の代わりにカメラ及びコンピュータを用いてターゲットに対して認識、追跡及び測定などの機械ビジョンを行い、さらにグラフィック処理を行い、コンピュータに人の目による観察又は機器による検出のための転送に適する画像に処理することを指す。一つの科学の学科として、コンピュータビジョンでは、関連する理論及び技術を研究し、画像又は多次元データから情報を取得することができる人工知能システムを確立しようとする。コンピュータビジョン技術は、一般的に画像処理、画像認識、画像意味理解、画像検索、光学文字認識(Optical Character Recognition、OCR)、ビデオ処理、ビデオ意味理解、ビデオコンテンツ/行為認識、三次元物体再構成、3D技術、仮想現実、拡張現実、同期測位及び地図構築などの技術を含み、さらに一般的な顔認識、指紋認識などの生物特徴認識技術を含む。
人工知能技術の研究及び進歩に伴い、人工知能技術は、多くの分野において研究及び応用を展開している。例えば一般的なスマートホーム、スマートウェアラブルデバイス、仮想アシスタント、スマートスピーカー、スマートマーケティング、無人運転、自動運転、無人航空機、ロボット、スマートワンヘルス、スマートカスタマーサービスなどであり、技術の発展に伴って、人工知能技術は、より多くの分野において応用され、かつますます重要な価値を発揮している。
上記説明と組み合わせて、以下、本願における生体顔検出方法を説明する。図3に参照されるように、本願の実施例における生体顔検出方法の1つの実施例は、以下のステップ101~104を含む。
ステップ101では、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得し、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数である。
本実施例において、生体顔検出装置は、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する。初期顔画像は、自然光の場合に撮影された顔画像であり、N個の顔画像に含まれる顔の表情及び位置は、変化しないように維持されるか又は変化幅が小さい。自然光が非常に弱い場合、例えば暗い環境では、画像収集装置は、明瞭な顔画像を撮影しにくく、このような場合には、初期顔画像は、複数の光源又は全ての光源が同時に起動される場合に撮影されてもよい。
ここで、N個の光源は、同一の直線上にあるべきではない。理解を容易にするために図4に参照されるように、図4は、本願の実施例における光源位置の1つの配列概略図である。図に示すように、Nが3である場合、光源の位置が2つずつ接続された後に、図4に示すような三角形を構成することができる。理解すべきこととして、図4に示される光源の数及び位置は、例示的なものに過ぎず、他の実施例において、光源の数は3つより大きくてもよく、光源の位置は他の図形を構成してもよく、例えば、4つの光源に対応する位置は、矩形、平行四辺形又は他の四角形などを構成することができ、5つの光源に対応する位置は、五角形又は他の形状などを構成することができるが、ここではいずれも限定しない。
説明すべきこととして、生体顔検出装置をサーバに配置してもよく、端末機器に配置してもよい。説明を容易にするために、本願は、生体顔検出装置を端末機器に配置することを例として説明するが、これは、本願を限定するものと理解すべきではない。
102では、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得する。
本実施例において、生体顔検出装置は、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得することができる。各顔画像が異なる光照射方向に対応するため、差分画像は、ある方向の光照射条件で取得された顔画像と自然光の条件下で取得された初期顔画像との間の差異であると理解することができる。差分画像は、顔画像から初期顔画像を減算することで取得することができ、具体的には、顔画像上の各画素値から初期顔画像上の対応する位置の画素値をそれぞれ減算すれば、差分画像を取得することができる。
103では、N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成し、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である。
本実施例において、生体顔検出装置は、N個の差分画像及びN個の光照射方向に基づいて、法線マップ(Normal Map)及び反射率マップ(Albedo Map)を生成する。ここで、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である。異なるチャネルは、赤緑青(red green blue、RGB)チャネルであってもよく、YUVチャネル又はHSVチャネルであってもよく、ここでは限定しない。法線マップは、三次元幾何学的情報を含み、顔画像における凹凸表面を表示するために用いられ、異なるチャネルの値を利用して各画素点の法線方向を記録する。反射率マップは、表面材質情報を含み、黒色及び白色を使用して画像の反射強度レベルを指示することができ、例えば、黒色の画素点は該位置の反射率が0%であることを指示し、白色の画素点は該位置の反射率が100%であることを指示する。
104では、N個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定する。
本実施例において、生体顔検出装置は、N個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定する。生体顔検出結果は、1つの確率値として表示されてもよく、該確率値に基づいて、生体顔に属する可能性を決定することができる。好ましくは、生体顔検出結果は、判定結果、例えば、検出された顔が生体顔に属するか又は非生体顔に属すると表示されてもよい。生体顔検出結果が非生体顔であれば、端末機器は、警告情報を表示するか、又はショートメッセージ及びメールボックスなどの方式により関連する作業者に通知することができる。例えば、税関で、第1のユーザーの生体顔検出結果が非生体顔であれば、通関ゲートをロックし、かつ税関職員に手動検査を行うように通知することができる。第2のユーザーの生体顔検出結果が生体顔であれば、通関ゲートを通過して後続の操作を行うことができる。また例えば、顔認証決済において、第2のユーザーの生体顔検出結果が生体顔であれば、後続の認証又は決済操作を継続することができる。
本願の実施例に係る生体顔検出方法は、まず初期顔画像及びN個の光照射方向に対応する顔画像集合を取得し、次に初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得し、さらにN個の差分画像に基づいて、法線マップ及び反射率マップを生成し、最後にN個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定することができる。上記方式により、異なる方向の入射光を利用して顔に照射し、顔画像の法線マップ及び反射率マップを算出することができる。法線マップには三次元幾何学的情報が含まれ、反射率マップには表面材質情報が含まれ、同時に顔画像の三次元幾何学的情報及び表面材質情報が考慮されるため、顔画像の真実性を識別し、異なる生体顔攻撃の方法を効果的に防御することができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出方法の1つの選択可能な実施例において、顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含む。ステップ101では、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得することは、
初期顔画像を取得するステップと、
目標時間内の第1の時刻に、第1の顔画像を取得するステップと、
目標時間内の第2の時刻に、第2の顔画像を取得するステップであって、ここで、第2の時刻は第1の時刻とは異なる時刻である、ステップと、
目標時間内の第3の時刻に、第3の顔画像を取得するステップであって、ここで、第3の時刻は第1の時刻とは異なる時刻であり、かつ第3の時刻は第2の時刻とは異なる時刻である、ステップと、を含んでよい。
本実施例においては、目標時間内に初期顔画像及びN個の人顔画像を取得する方式が説明される。生体顔検出装置は、目標時間内に顔画像集合を取得することができる。理解すべきこととしては、各光照射方向が一般的に一定であるため、顔の姿勢が変化しない状況では、顔のある部分に対して、各光照射方向の光線入射角は一定である。各顔画像における顔と光源との相対位置が変化すれば、同じ位置の入射角が変化してしまう。例えば、第1の光照射方向及び第2の光照射方向で、鼻先の所在する位置の入射角はそれぞれλ1及びλ2であり、第2の光照射方向に対応する顔画像において、鼻先の位置が変化すれば、入射角の実際値がλ3に変化する可能性がある。そして法線マップ及び反射率マップを計算するときに、顔画像をできるだけ初期顔画像とアラインメントする必要があり、計算に用いられる入射角の値は依然としてλ1及びλ2を用いるため、λ2とλ3との間の差異が大きれば、計算結果の正確性が影響を受け、一定の誤差が生じる。その結果、差分画像に基づいて計算して取得された法線マップ及び反射率マップの正確性が低下する。説明すべきこととして、顔画像を収集する過程において、顔の姿勢及び顔の筋肉が変化しないことをできるだけ確実にすべきであり、ここで、頭部の回動又は頭部の移動は、いずれも姿勢の変化を引き起こす可能性がある。
初期顔画像及びN個の人顔画像における顔の姿勢及び顔の筋肉ができるだけ一定となることを確実にするために、目標時間内に上記顔画像を取得すべきである。目標時間は、予め設定された一定の時間、例えば1秒であってよく、人為的に動的に調節されてもよい。例えば、周囲環境が暗い状況で、目標時間を延長することにより、より長い露光時間を顔画像に供し、画像の解像度を向上させることができる。周囲環境の光線が良好である状況においては目標時間を短縮することにより、ユーザーが画像を取得する過程において、顔の姿勢が変化したり顔の筋肉が震える、又は画像収集装置が揺れるために、画像の収集が失敗するという可能性を低減することができる。
理解できるように、顔画像の収集が失敗するか、又は顔画像を収集する前に、さらに関連する提示を表示してもよい。説明を容易にするために、図5に参照されるように、図5は、本願の実施例における端末機器が画像収集提示メッセージを表示する1つのインタフェース概略図である。図に示すように、ユーザーは、携帯電話を使用して顔認証決済を行う過程において、顔画像を収集して撮影する前に、画面に「携帯電話を揺らさず、表情を一定に維持してください」という文字提示(又は音声提示)を表示することにより、ユーザーに協力して操作するように提示することができる。上記目的のために、生体顔検出装置は、顔画像を取得する過程において端末機器が揺れるか否かを検出することができる。例えば、端末機器のジャイロスコープ及び/又は重力センサーに基づいて、該端末機器が目標時間内に揺れるか否かを判断し、揺れが発生すれば、今回の顔画像取得操作を終了し、かつ顔画像を再収集することができる。
本願の実施例において、目標時間内に初期顔画像及びN個の人顔画像を取得する方法が提供される。上記方式により、短時間で複数枚の顔画像を連続して収集し、顔画像における顔の位置及び表情が変化しないか又は類似するようになることを確実にすることができ、差分画像を計算することに役立つことにより、生体顔検出の精度を向上させることに役立つ。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含む。N個の光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ第1の光照射方向、第2の光照射方向及び第3の光照射方向は、異なる方向における光照射である。
ステップ101では、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得することは、
初期顔画像を取得するステップと、
第1の光照射方向で第1の顔画像を取得するステップと、
第2の光照射方向で第2の顔画像を取得するステップと、
第3の光照射方向で第3の顔画像を取得するステップと、を含んでよい。
本実施例において、異なる方向における顔画像を取得する方式が説明されており、生体顔検出装置は、画像収集装置により初期顔画像及び各光照射方向における顔画像を撮影する。画像収集装置は、端末機器の内蔵カメラ又は外付けカメラであってよい。理解すべきこととして、異なる方向からの光源が顔に照射することにより、異なる光照射での顔画像が取得される。光照射方向と顔画像との間には対応関係を有する。すなわち、第1の光照射方向で第1の顔画像を取得し、第2の光照射方向で第2の顔画像を取得し、第3の光照射方向で第3の顔画像を取得し、かつ第1の光照射方向、第2の光照射方向及び第3の光照射方向が異なる方向における光照射である。
理解を容易にするために、以下、例と合わせて説明すると、第1のユーザーが携帯電話により銀行口座情報を修正する場合、生体顔認識を行う必要がある。まず、携帯電話の内蔵カメラにより自然光の条件下で初期顔画像を撮影することができる。次に、携帯電話の画面を点灯させることにより異なる光照射方向を提供し、内蔵カメラが、対応する顔画像A、顔画像B及び顔画像Cを順に撮影する。顔画像を取得する過程において、携帯電話は、提示情報を表示することにより、ユーザーが携帯電話の安定をできるだけ維持し、かつ顔の姿勢及び顔の筋肉を変化させないように維持することを指導することができる。初期顔画像、顔画像A、顔画像B及び顔画像Cを取得した後に、携帯電話が差分画像A、差分画像B及び差分画像Cを計算し、さらに法線マップ及び反射率マップを取得し、最後に差分画像A、差分画像B及び差分画像C、並びに法線マップ及び反射率マップにより、生体顔検出結果を生成することができる。携帯電話は結果に応じて後続の操作を行い、すなわち、第1のユーザーが警告情報を修正するか又は表示することを許可する。
顔画像における顔の位置及び表情ができるだけ一定となることを確実にするために、画像収集装置は、上記方式に従って目標時間の異なる時刻で各顔画像を撮影することができる。具体的な方式は上記と一致しているため、ここでは説明を省略する。
理解すべきこととして、本実施例において生体顔検出装置を例とするが、上記過程は、サーバと生体顔検出装置との対話により行われてもよい。例えば、生体顔検出装置は、取得された顔画像及び関連情報をサーバにアップロードし、サーバによって生体顔検出結果を計算し、かつ携帯電話に返信してもよい。
理解すべきこととして、本実施例における光照射方向及び対応する顔画像の数は、例示的なものに過ぎず、本願を限定するものと理解すべきではない。他の実施例において、実際の状況に応じてより多くの光照射方向を提供してより多くの対応する顔画像を撮影することができる。
本願の実施例において、異なる方向の顔画像を取得する方法が提供される。上記方式により、画像収集装置を用いて初期顔画像及び少なくとも3つの光照射方向の顔画像を取得し、法線マップ及び反射率マップの計算に、合理的なデータ基礎を提供し、計算の失敗を回避することにより計算の信頼性を向上させることができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、N個の光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ第1の光源位置、第2の光源位置及び第3の光源位置は、同一の直線上に位置しない。
第1の光照射方向で第1の顔画像を取得するステップは、
端末機器の第1の画面領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップを含んでよく、ここで、第1の画面領域は、第1の光源位置に位置し、第1の光照射方向は、第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で第2の顔画像を取得するステップは、
端末機器の第2の画面領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップを含んでよく、ここで、第2の画面領域は、第2の光源位置に位置し、第2の光照射方向は、第2の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第3の光照射方向で第3の顔画像を取得するステップは、
端末機器の第3の画面領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップを含んでよく、ここで、第3の画面領域は、第3の光源位置に位置し、第3の光照射方向は、第3の画面領域が点灯するときに認識対象の顔を照射する対応する方向である。
本実施例において、生体顔検出装置の画面領域が点灯するモードに基づいて顔画像を取得する方法が説明される。端末機器は、第1の画面領域を点灯させて認識対象の顔に照射し、第1の画面領域の所在する位置は、第1の光源位置であり、第1の光源位置で顔に照射する方向は、第1の照射方向であり、次に画像収集装置は、顔を撮影して第1の顔画像を取得し、その後に該端末機器は第1の画面領域を消灯させる。同様に、端末機器は、第2の画面領域を点灯させて認識対象の顔に照射し、第2の画面領域の所在する位置は、第2の光源位置であり、第2の光源位置で顔に照射する方向は、第2の照射方向であり、次に画像収集装置は、顔を撮影して第2の顔画像を取得し、その後に端末機器は、第2の画面領域を消灯させる。同様に、端末機器は、第3の画面領域を点灯させて認識対象の顔に照射し、第3の画面領域の所在する位置は、第3の光源位置であり、第3の光源位置で顔に照射する方向は、第3の照射方向であり、次に画像収集装置は、顔を撮影して第3の顔画像を取得し、その後に端末機器は、第3の画面領域を消灯させる。このように、他の実施例において、より多くの画面領域がさらに存在し、上記と類似する方式を用いて対応する顔画像を取得することを類推し得るが、ここでは1つずつ列挙しない。
理解を容易にするために、図6に参照されるように、図6は、本願の実施例における顔画像集合の収集方式の1つの概略図である。生体顔検出装置が端末機器であることを例として、該端末機器が携帯電話であると仮定する。具体的には、図6(a)に示すように、携帯電話により顔画像集合を収集するときに、携帯電話は、画面領域Aを点灯させ、点灯した画面領域Aは、第1の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第1の光照射方向における第1の顔画像を撮影し、その後に携帯電話は、画面領域Aを消灯させる。同様に、図6(b)に示すように、携帯電話は、画面領域Bを点灯させ、点灯した画面領域Bは、第2の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第2の光照射方向における第2の顔画像を撮影し、その後に携帯電話は、画面領域Bを消灯させる。最後に、図6(c)に示すように、携帯電話は、画面領域Cを点灯させ、点灯した画面領域Cは、第3の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第3の光照射方向における第3の顔画像を撮影し、その後に携帯電話は、画面領域Cを消灯させる。
理解を容易にするために、端末機器の画面を複数の領域に区画し、各領域は、異なる光照射方向からの光源を提供するために用いられる。図7に参照されるように、図7は、本願の実施例の画面領域の1つの概略図である。図に示すように、画面は、9つの領域に区画され、領域Aが第1の画面領域であり、領域Bが第2の画面領域であり、領域Cが第3の画面領域であると仮定する。携帯電話が領域Aを点灯させるときに、領域Aの画面を画面点灯状態に設定し、領域Aではない他の領域を画面消灯状態に設定することができる。図7において、使用されない領域は、候補領域であってよく、より多くの領域を光源とする必要がある場合に、点灯して使用することができる。理解すべきこととして、図7における区画方式は、一例に過ぎず、実際の応用において、任意の方式を用いて任意の形状、例えば円形の領域を区画することができる。領域の数及び点灯順序は、実際の需要に応じて決定されてもよく、ここでは限定されない。
理解できるように、画面点灯状態にある光源色は、白色光、赤色光及び紫色光などを含むが、これらに限定されず、ここでは限定されない。また、点灯した画面は、自然光をシミュレーションすることができる。
注意すべきこととして、顔画像集合を取得する過程において、複数の光源位置に対応する光源を同時に点灯させることではなく、毎回1つの光源位置に対応する光源のみを点灯させる。
本願の実施例において、端末機器の画面領域が点灯するモードに基づいて顔画像を取得する方法が提供される。上記方式により、画面を複数の領域に区画し、これらの領域を光源として利用して顔画像集合の取得を行うことにより、追加の光源を必要とせずに画面を利用して異なる光照射方向を取得し、画像取得の利便性を向上させ、ハードウェアコストを削減し、そして端末機器の体積をより小さくすることができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、N個の光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ第1の光源位置、第2の光源位置及び第3の光源位置は、同一の直線上に位置しない。
第1の光照射方向で第1の顔画像を取得するステップは、
第1の発光ダイオードの発光領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップを含み、ここで、第1の発光領域は、第1の光源位置に位置し、第1の光照射方向は、第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で第2の顔画像を取得するステップは、
第2の発光領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップを含み、ここで、第2の発光領域は、第2の光源位置に位置し、第2の光照射方向は、第2の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第3の光照射方向で第3の顔画像を取得するステップは、
第3の発光領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップを含み、ここで、第3の発光領域は、第3の光源位置に位置し、第3の光照射方向は、第3の発光領域が点灯するときに認識対象の顔を照射する対応する方向である。
本実施例において、発光領域が点灯するモードに基づいて顔画像を取得する方法が説明されている。ここで、発光領域は、発光ダイオード(Light Emitting Diode,LED)、コンパクト蛍光灯又は他の照明機器であってよく、本実施例においては、LEDを例とする。生体顔検出装置は、第1のLEDを点灯させて認識対象の顔に照射し、第1のLEDの所在する位置は、第1の光源位置であり、第1のLEDが顔に照射する方向は、第1の光照射方向であり、次に画像収集装置は、顔を撮影して第1の顔画像を取得し、その後に生体顔検出装置は、第1のLEDを消灯させる。同様に、生体顔検出装置は、第2のLEDを点灯させて認識対象の顔に照射し、第2のLEDの所在する位置は、第2の光源位置であり、第2のLEDが顔に照射する方向は、第2の光照射方向であり、次に画像収集装置は、顔を撮影して第2の顔画像を取得し、その後に生体顔検出装置は、第2のLEDを消灯させる。生体顔検出装置は、第3のLEDを点灯させて認識対象の顔に照射し、第3のLEDの所在する位置は、第3の光源位置であり、第3のLEDが顔に照射する方向は、第3の光照射方向であり、次に画像収集装置は、顔を撮影して第3の顔画像を取得し、その後に生体顔検出装置は、第3のLEDを消灯させる。他の実施例において、より多く(少なくとも3つ)のLEDがさらに存在し、上記と類似する方式を用いて対応する顔画像を取得し得るが、ここでは1つずつ列挙しない。
理解を容易にするために、図8に参照されるように、図8は、本願の実施例における顔画像集合の収集方式の1つの概略図である。生体顔検出装置が端末機器であることを例とすると、該端末機器はLEDの点灯又は消灯を制御することができる。具体的には、図8(a)に示すように、顔画像集合を収集するときに、まず、端末機器は、LED Aが点灯するように制御し、点灯したLED Aは、第1の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第1の光照射方向における第1の顔画像を撮影し、その後に端末機器は、LED Aが消灯するように制御する。同様に、図8(b)に示すように、端末機器は、LED Bが点灯するように制御し、点灯したLED Bは、第2の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第2の光照射方向における第2の顔画像を撮影し、その後に端末機器は、LED Bが消灯するように制御する。図8(c)に示すように、端末機器は、LED Cが点灯するように制御し、点灯したLED Cは、第3の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第3の光照射方向における第3の顔画像を撮影し、その後に端末機器は、LED Cが消灯するように制御する。また、より多くの顔画像を撮影することもでき、図8(d)に示すように、端末機器は、LED Dが点灯するように制御し、点灯したLED Dは、第4の光照射方向からの光源を提供するために用いられる。このように携帯電話は、第1のユーザーの第4の光照射方向における第4の顔画像を撮影し、その後に端末機器は、LED Dが消灯するように制御する。
説明すべきこととして、光源は、複数のLEDを含み、各LEDは、異なる照射方向を提供するために用いられる。理解を容易にするために、図9に参照されるように、図9は、本願の実施例のLED配列方式の1つの概略図である。図に示すように、LEDは、円形の円周に分布してよい。理解すべきこととして、図9におけるLEDの分布方式は、1つの例示的なものに過ぎず、実際の応用において、LEDは、任意の形状、例えば長方形又は楕円形に分布してよく、LEDの数及び点灯順序は、実際の需要に応じて決定されてよく、ここでは限定されない。
初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するステップは、
初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、第1の顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、第2の顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、第3の顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を含んでよい。
注意すべきこととして、顔画像集合を取得する過程において、複数の光源位置に対応する光源を同時に点灯させることではなく、毎回1つの光源位置に対応する光源のみを点灯させる。
本願の実施例において、LEDが点灯するモードに基づいて顔画像を取得する方法が提供される。上記方式により、LEDを光源として利用して顔画像集合を取得することにより、より良好な光照射効果を提供し、顔画像と初期顔画像との間の相違度及び顔図形の解像度を向上させ、計算の正確性を向上させることに役立たせることができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出方法の1つの選択可能な実施例において、顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含む。
初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するステップは、
初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を含んでよい。
本実施例において、顔キーポイントに基づいて差分画像を生成する方法が説明される。生体顔検出装置は、初期顔画像に対して顔キーポイント検出を行って、複数のキーポイントを含む初期顔キーポイント集合を取得する。同様に、さらに第1の顔画像に対して顔キーポイント検出を行って、複数の第1の顔キーポイントを含む第1の顔キーポイント集合を取得する必要がある。第2の顔画像に対して顔キーポイント検出を行って、複数の第2の顔キーポイントを含む第2の顔キーポイント集合を取得する。第3の顔画像に対して顔キーポイント検出を行って、複数の第3の顔キーポイントを含む第3の顔キーポイント集合を取得し、ここで、上記キーポイントは、例えば目、鼻先、口角点、眉又は顔の各部分の輪郭点などの顔の特徴の標識とするために用いられ、初期顔キーポイント集合、第1の顔キーポイント集合、第2の顔キーポイント集合及び第3の顔キーポイント集合において標識とされた特徴は同じである。生体顔検出装置は、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成する。同様に、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成する。同様に、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成する。1つの実施例において、第1の差分画像を生成する過程において、生体顔検出装置は、まず第1の顔キーポイント集合及び初期顔キーポイント集合に基づいて、第1の顔画像及び初期顔画像に対して顔を位置合わせ、次にアラインメント後の画像に基づいて、第1の差分画像を生成する。第2の差分画像及び第3の差分画像の生成は、第1の差分画像と類似しているため、ここでは説明を省略する。
説明を容易にするために、図10に参照されるように、図10は、本願の実施例における顔キーポイント集合の1つの概略図である。図に示すように、図10には初期顔画像P0、第1の顔画像P1、第2の顔画像P2及び第3の顔画像P3が含まれ、生体顔検出装置は、初期顔画像P0に対して顔キーポイント検出を行って、顔キーポイント集合S0を取得し、顔キーポイント集合S0を初期顔画像P0上の対応する位置にマークして、図10におけるキーポイントがマークされた初期顔画像P0を取得することができる。同様に、生体顔検出装置は、図10における顔画像P1、顔画像P2及び顔画像P3に対して顔キーポイント検出を行って、顔画像P1の顔キーポイント集合S1、顔画像P2の顔キーポイント集合S2及び顔画像P3の顔キーポイント集合S3を取得する。
初期顔画像P0上の顔キーポイント集合S0と顔画像P1上の顔キーポイント集合S1とをアラインメントした後、対応する差分画像D1を生成することができる。同様に、初期顔画像P0上の顔キーポイント集合S0と顔画像P2上の顔キーポイント集合S2とをアラインメントした後、対応する差分画像D2を生成することができる。初期顔画像P0上の顔キーポイント集合S0と顔画像P3上の顔キーポイント集合S3とをアラインメントした後、対応する差分画像D3を生成することができる。位置合わせ方式は、平行移動、回転又は変倍を含むが、これらに限定されない。
理解すべきこととして、複数の顔画像のキーポイント検出にはタイミング要求がなく、かつ差分画像の生成にもタイミング要求がない。例えば、まず第1の顔画像に対して顔キーポイント検出を行って、第1のキーポイント集合を取得した後、第1の差分画像を生成し、次に第2の顔画像に対して顔キーポイント検出を行ってよい。まず第1の顔画像及び第2の顔画像に対してキーポイント検出を行い、次にそれぞれ対応する差分画像を生成してもよい。さらに第1の顔画像に対して顔キーポイント検出を行い、そして第2の顔画像に対して顔キーポイント検出を行ってもよい。
本願の実施例において、顔キーポイントに基づいて差分画像を生成する方法が提供される。上記方式により、解決手段の実現に具体的な根拠を提供することにより、解決手段の実現可能性を向上させることに役立つ。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、該方法は、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するステップと、
第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するステップと、
第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するステップと、をさらに含んでよい。
本実施例において、顔キーポイント集合のオフセット量に基づいて画像収集が成功するか否かを判定する方法が説明される。生体顔検出装置は、初期顔キーポイント集合と、第1の顔キーポイント集合、第2の顔キーポイント集合及び第3の顔キーポイント集合とに基づいて、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量をそれぞれ計算して取得し、第1のキーポイントオフセット量、第2のキーポイントオフセット量又は第3のキーポイントオフセット量のうちの少なくとも1つのオフセット量がオフセット閾値以上であれば、収集された顔画像の間の位置及び表情の差異が大きく、生体顔検出結果の正確性に影響を与えることを表すために、ユーザーに再収集提示メッセージを表示してユーザーに顔画像を再収集する必要があると提示する必要がある。第1のキーポイントオフセット量、第2のキーポイントオフセット量又は第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、収集された顔画像により生体顔検出結果を正確に算出できることを表すために、生体顔検出装置は、収集された顔画像に基づいて、対応する差分画像をさらに生成することができる。
以下、キーポイントオフセット量の決定方式は、以下の3種類の方式を用いることができることを説明する。
方式1:キーポイント集合における任意の一対の対応するキーポイントのオフセット量を取得してもよい。初期顔キーポイントが鼻先キーポイントであり、第1の顔キーポイントも鼻先キーポイントであると仮定すると、第1のキーポイントオフセット量を計算するときに、該初期顔キーポイントと該第1の顔キーポイントとの間の画素点の最小距離を計算することができる。ここで、該最小距離は、第1のキーポイントオフセット量である。
説明すべきこととして、第2のキーポイントオフセット量は、第3のキーポイントオフセット量の計算方式と類似しており、ここでは1つずつ列挙しない。
方式2:キーポイント集合の間の最大のオフセット量をキーポイントオフセット量として取得してもよい。100個の初期顔キーポイント及び100個の第1の顔キーポイントが存在すると仮定すると、各初期顔キーポイント及び対応する第1の顔キーポイントを計算して、100個のキーポイント距離を取得し、さらにそのうちからキーポイント距離の最大値を第1のキーポイントオフセット量として選択する。
説明すべきこととして、第2のキーポイントオフセット量は、第3のキーポイントオフセット量の計算方式と類似しており、ここでは1つずつ列挙しない。
方式3:キーポイント集合の間のオフセット量の平均値をキーポイントオフセット量として取得してもよい。100個の初期顔キーポイント及び100個の第1の顔キーポイントが存在すると仮定すると、各初期顔キーポイント及び対応する第1の顔キーポイントを計算して、100個のキーポイント距離を取得する。その後にこの100個のキーポイント距離の平均値を計算すれば、キーポイント平均距離を取得することができ、該キーポイント平均距離を第1のキーポイントオフセット量とする。
説明すべきこととして、第2のキーポイントオフセット量は、第3のキーポイントオフセット量の計算方式と類似し、ここでは1つずつ列挙しない。
以下、オフセット閾値の決定方式を説明する。オフセット閾値は、固定閾値又は動的閾値であってよい。固定閾値は、複数の候補閾値を有してよい。生体顔検出装置は、その実際の状況に応じて固定閾値の実際値を決定する。例えば、候補閾値は、携帯電話に適用される候補閾値、タブレットコンピュータに適用される候補閾値及び現金自動預払機に適用される候補閾値を含んでよく、生体顔検出装置が携帯電話である場合、携帯電話に適用される候補閾値を固定閾値として使用することができる。
動的閾値は、収集された顔画像の数と所定の閾値とに基づいて計算して取得することができ、動的閾値の計算式は、以下のとおりである。
Figure 0007286208000001
ここで、Tは、動的閾値を表し、Nは、生体顔検出装置が収集した顔画像の数を表し、Sは、デフォルトの顔画像の数を表す。一般的にはSを3に設定することができ、Pは、デフォルトのオフセット量閾値を表し、αは、スケール因子である。
理解を容易にするために、図11に参照されるように、図11は、本願の実施例における生体顔検出装置が再収集提示メッセージを表示する1つのインタフェース概略図である。図に示すように、生体顔検出装置が固定閾値Mを用い、かつM=10であると仮定する。初期顔キーポイント集合における鼻先キーポイントと第1の顔キーポイント集合における鼻先キーポイントとの間の距離がDであり、かつD=30であれば、D>Mであるため、図11に示すように、生体顔検出装置は、端末機器の画面により、ユーザーに「画像揺れが大きすぎるため、再撮影してください」という提示メッセージを提示する。
本願の実施例において、顔キーポイント集合のオフセット量に基づいて画像収集が成功するか否かを判定する方法が提供される。上記方式により、収集された顔画像の差異が大きすぎる場合に再収集することができ、収集画像の差異により生体顔検出の結果に影響を与えることを回避し、生体顔検出結果をより確実にする。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップは、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の変換行列を決定するステップと、
第1の変換行列及び初期顔画像に基づいて、第1の顔画像をアラインメントし、アラインメント後の第1の顔画像を取得するステップと、
アラインメント後の第1の顔画像と初期顔画像とに基づいて、第1の差分画像を生成するステップと、を含んでよく、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップは、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の変換行列を決定するステップと、
第2の変換行列及び初期顔画像に基づいて、第2の顔画像をアラインメントし、アラインメント後の第2の顔画像を取得するステップと、
アラインメント後の第2の顔画像と初期顔画像とに基づいて、第2の差分画像を生成するステップと、を含んでよく、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップは、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の変換行列を決定するステップと、
第3の変換行列及び初期顔画像に基づいて、第3の顔画像をアラインメントし、アラインメント後の第3の顔画像を取得するステップと、
アラインメント後の第3の顔画像と初期顔画像とに基づいて、第3の差分画像を生成するステップと、を含んでよい。
本実施例において、変換行列に基づいて差分画像を生成する方法が説明される。初期顔キーポイント集合と、第1の顔キーポイント集合、第2の顔キーポイント集合及び第3の顔キーポイント集合とに対して、生体顔検出装置は、対応する第1の変換行列、第2の変換行列及び第3の変換行列をそれぞれ決定し、かつ取得された第1の変換行列、第2の変換行列及び第3の変換行列に基づいて、対応する顔画像と初期顔画像とをアラインメントし、その後にアラインメント後の顔画像と初期顔画像とに基づいて、差分画像を生成する。
変換行列の1種の計算式は以下のとおりである。
Figure 0007286208000002
ここで、Kは初期顔キーポイント集合を表し、Kはi番目の顔画像に対応する顔キーポイント集合を表し、3×Tの行列として表すことができ、Tはキーポイントの数量であり、Mはi番目の顔画像から初期顔画像までの変換行列を表し、2×3の行列として表すことができ、は[数3]はL2のノルムを表す。
Figure 0007286208000003
説明を容易にするために、以下、第1の差分画像を生成することを例として説明する。理解できるように、他の差分画像の生成方式は類似しており、ここでは説明を省略する。第1の差分画像に100個の第1の顔キーポイントがあり、初期顔画像にも対応する100個の初期顔キーポイントがあると仮定すると、第1の顔キーポイントから6つの第1の顔キーポイントを取り出し、かつ初期顔キーポイントから該6つの第1の顔キーポイントに対応する6つの初期顔キーポイントを取り出し、6対の顔キーポイントに基づいて第1の変換行列を算出すると仮定する。次に計算して取得された第1の変換行列に基づいて、第1の顔画像における残りの94個の第1の顔キーポイントと、初期顔画像における残りの94個の初期顔キーポイントをアラインメントして、アラインメント後の第1の顔画像を取得する。最後に、アラインメント後の第1の顔画像から初期顔画像を減算すれば、第1の差分画像を生成することができる。説明すべきこととして、アラインメント操作は、アフィン変換を含むが、それに限定されず、具体的には伸縮、回転及び平行移動などを含む。
本願の実施例において、変換行列に基づいて差分画像を生成する方法が提供される。上記方式により、顔画像及び初期顔画像における一部のキーポイントを利用して変換行列を生成し、その後に変換行列を利用して顔画像及び初期顔画像上の他の画素をアラインメントすることにより、画像のアラインメントを実現することができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、N個の差分画像に基づいて、法線マップ及び反射率マップを生成するステップは、
第1の差分画像、第2の差分画像及び第3の差分画像に基づいて、法線及び反射率を計算して取得するステップと、
法線に基づいて法線マップを生成するステップと、
反射率に基づいて反射率マップを生成するステップと、を含んでよい。
本実施例において、N個の差分画像に基づいて法線マップ及び反射率マップを生成する方法が説明される。生体顔検出装置は、第1の差分画像の各画素値、第2の差分画像の各画素値及び第3の差分画像の各画素値に基づいて、方程式を連立させることにより、法線マップ上の各画素点の法線及び反射率マップ上の各画素点の反射率を算出し、かつ取得された各画素点の法線に基づいて、法線マップを生成し、取得された各画素点の反射率に基づいて、反射率マップを生成する。説明を容易にするために、図12に参照されるように、図12は、本願の実施例における法線マップ及び反射率マップの1つの概略図であり、ここで、左側の図は法線マップであり、右側の図は反射率マップである。法線マップにおいて各画素点に対応する法線は、3つの方向の成分を有する。
本願の実施例において、N個の差分画像に基づいて法線マップ及び反射率マップを生成する方法が提供される。上記方式により、光線入射角及び画素値に基づいて、差分画像の法線マップ及び反射率マップを計算し、本解決手段の実行可能性をさらに向上させることができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、第1の差分画像、第2の差分画像及び第3の差分画像に基づいて、法線及び反射率を計算して取得するステップは、
第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、ここで、第1の差分画像における目標画素点、第2の差分画像における目標画素点及び第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
第1の方程式、第2の方程式、第3の方程式及び第4の方程式に基づいて、目標画素点の法線及び目標画素点の反射率を計算して取得するステップであって、ここで、第4の方程式は法線に対応する3つの方向分類の関係を表す、ステップと、を含んでよく、
法線に基づいて法線マップを生成するステップは、
目標画素点の法線に基づいて、目標画素点に対応する法線マップを生成するステップを含んでよく、
反射率に基づいて反射率マップを生成するステップは、
目標画素点の反射率に基づいて、目標画素点に対応する反射率マップを生成するステップを含んでよい。
本実施例において、生体顔検出装置は、N個の差分画像における同じ位置での画素点に対して、対応する方程式を決定し、少なくとも3つの差分画像が存在するため、少なくとも3つの方程式を取得することができ、法線の3つの成分の二乗和が1である第4の方程式と組み合わせて、該画素点の法線及び反射率を計算して取得することができる。差分画像における各画素点に対して上記操作を行えば、各画素点の法線(すなわち3つの法線成分を含む)及び反射率を取得し、すなわち法線マップ及び反射率マップを計算して取得することができる。
第1の差分画像、第2の差分画像及び第3の差分画像における目標画素点を例とすると、該目標画素点の所在する位置がいずれも(1,1)である。すなわち目標画素点の第1の差分画像における位置が(1,1)であり、目標画素点の第2の差分画像における位置も(1,1)であり、かつ目標画素点の第3の差分画像における位置も(1,1)であることを表すが、各目標画素点が異なる差分画像において異なる画素値を有する。すなわち目標画素点の第1の差分画像における画素値が[数4]であり、目標画素点の第2の差分画像における画素値が[数5]であり、目標画素点の第3の差分画像における画素値が[数6]であると仮定し、これに基づいて、以下の方程式[数7]を連立させることができる。
Figure 0007286208000004
Figure 0007286208000005
Figure 0007286208000006
Figure 0007286208000007
ここで、第1の方程式は[数8]であり、第2の方程式は[数9]であり、第3の方程式は[数10]であり、第4の方程式は[数11]である。ここで、α11は目標画素点の反射率を表し、n11は目標画素点の法線を表し、n、n及びnはそれぞれ法線n11の3つの成分を表す。λは第1の差分画像に対応する第1の光照射方向を表し、λは第2の差分画像に対応する第2の光照射方向を表し、λは第3の差分画像に対応する第3の光照射方向を表す。[数12]は目標画素点の第1の差分画像上の画素値を表し、[数13]は目標画素点の第2の差分画像上の画素値を表し、[数14]は目標画素点の第3の差分画像上の画素値を表す。
Figure 0007286208000008
Figure 0007286208000009
Figure 0007286208000010
Figure 0007286208000011
Figure 0007286208000012
Figure 0007286208000013
Figure 0007286208000014
説明すべきこととして、上付き文字11は目標画素点の位置が(1,1)であることを表す。このように類推すると、各画素点について、いずれも上付き文字の方式を用いて具体的な位置をマークすることができる。
差分画像における各画素点をいずれも上記のように計算することで、法線マップ及び反射率マップを得る。
実際の応用においては、差分画像の数は、3つに限定されないため、以下の方式を用いて計算することができる。
Figure 0007286208000015
ここで、αxyは(x,y)位置での画素点反射率を表し、nxyは(x,y)位置での画素点反射率法線を表し、n、n及びnはそれぞれ法線nxyの3つの成分を表し、λはi番目の顔画像の光照射方向を表し、[数16]はi番目の顔画像の(x,y)位置での画素値を表し、ここで、iは1以上であり、かつN以下の整数である。
Figure 0007286208000016
本願の実施例において、画像における各画素点に対して法線マップ及び反射率マップを計算する方法が提供される。上記方式により、各画素点に対して対応する結果を正確に算出することにより、解決手段の実現可能性及び操作可能性を向上させることができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、N個の差分画像、法線マップ及び反射率マップに基づいて生体顔検出結果を決定するステップは、
N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップと、を含んでよい。
本実施例において、端末機器で生体検出モデルを利用して生体顔確率を決定する方法が説明される。生体顔検出装置は、計算して取得されたN個の差分画像、法線マップ及び反射率マップを生体検出モデルに入力し、生体検出モデルは、入力されたデータに基づいて[0,1]の間の浮動小数点数を出力し、該浮動小数点数は、該顔が生体顔に属する確率を表す。
生体検出モデルは、畳み込みニューラルネットワーク(Convolutional Neural Networks、CNN)、例えば残余ニューラルネットワーク-50(Residual Neural Network-50、ResNet-50)ネットワークを用いることができる。生体顔検出装置は、端末機器に配置され、かつ該端末機器には、トレーニングされた生体検出モデルがさらに配置されている。該生体検出モデルのトレーニングは、サーバ又は他の計算能力の強い端末機器で行うことができる。生体検出モデルをトレーニングするときに、まず生体顔サンプル画像を収集し、かつ生体顔サンプル画像のラベルを1に設定し、非生体顔サンプル画像を収集し、かつ非生体顔サンプル画像のラベルを0に設定する。そして生体顔サンプル画像に対応するN枚の差分画像、法線マップ及び反射率マップ、並びに非生体顔サンプル画像に対応するN枚の差分画像、法線マップ及び反射率マップを収集し、N枚の差分画像、法線マップ及び反射率マップを一体に接合して、解像度がW*Hであり、チャネル数が(3*N+3+1)であるデータをトレーニング対象の生体検出モデルの入力として形成する。マークされた真ラベルと実際に出力された予測ラベルとの間の損失値を教師として該生体検出モデルをトレーニングし、生体検出モデルの損失値が収束するまで継続すれば、生体検出モデルのトレーニングが完了することを表す。
説明を容易にするために、図13に参照されるように、図13は、本願の実施例における生体検出モデルの1つの構造概略図である。図に示すように、N個の差分画像、法線マップ及び反射率マップを入力データとして生体検出モデルに入力し、生体検出モデルは、畳み込み層、プーリング層及び全接続(full connection、FC)層を含んでよい。入力データが畳み込み層、プーリング層及び全接続層を経て、1つの[0,1]の間の浮動小数点数が出力され、該浮動小数点数は、入力データが生体顔に属する確率を表すために用いられ、出力された確率値に基づいて、生体顔検出結果を決定することができる。
説明すべきこととして、図において1つの畳み込み層及び1つのプーリング層のみが含まれるが、これは例示的なものに過ぎず、本願を限定するものと理解すべきではない。実際の応用において、生体検出モデルは、複数の畳み込み層及び複数のプーリング層を含んでよく、具体的な数は、実際の状況に依存して決定することができる。
本実施例において、端末機器で生体検出モデルを利用して生体顔確率を決定する方法が提供される。上記方式により、ネットワークと接続する必要がない場合に、端末機器を利用して生体顔の確率を判断することにより、検出の柔軟性を向上させることができる。
好ましくは、上記図3に対応する各実施例を基にした、本願の実施例に係る生体顔検出の方法の1つの選択可能な実施例において、N個の差分画像、法線マップ及び反射率マップに基づいて生体顔検出結果を決定するステップは、
サーバにN個の差分画像、法線マップ及び反射率マップを送信することにより、サーバが、N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
サーバから送信される生体顔検出結果を受信するステップと、を含んでよい。
本実施例において、サーバで生体検出モデルを利用して生体顔確率を決定する方法が説明される。トレーニングされた生体検出モデルは、サーバに配置され、生体顔検出装置は、計算して取得されたN個の差分画像、法線マップ及び反射率マップをサーバに送信する。サーバは、受信されたデータを生体検出モデルに入力する。生体検出モデルは、入力されたデータに基づいて[0,1]の間の浮動小数点数を出力する。該浮動小数点数は、該顔が実際の人のものである確率を表し、サーバは、最後に浮動小数点数に基づいて決定された生体顔検出結果を生体顔検出装置に送信する。
理解すべきこととして、本実施例における生体検出モデルのトレーニング方式は、上記実施例に係るトレーニング方式と類似し、ここでは説明を省略する。
本実施例において、サーバで生体検出モデルを利用して生体顔確率を決定する方法が提供される。上記方式により、サーバが、生体検出モデルを利用して顔が生体である確率を決定することにより、端末機器に対するハードウェア需要を低減し、端末機器のハードウェアコストを削減することができ、かつサーバの計算能力が高くなり、計算速度が速くなり、本願の方法の効率を向上させることができる。
以下に実際の応用と組み合わせて本願の実施例の実行過程を説明する。図14に参照されるように、図14は、本願の実施例における生体顔検出フローの1つの概略図である。図に示すように、端末機器で顔認証決済を行うことを例とすると、ユーザーが端末機器を使用して顔認証決済を行うときに、生体顔検出をトリガするこがあり、具体的には、以下のとおりである。
ステップS1では、端末機器は、まず自然光の状況で初期顔画像P0を取得し、次に端末機器上のN個の領域を光源として順に点灯させてN個の異なる方向における光照射を提供する。1つの光源を起動するたびに1枚の顔画像を収集することができ、Nが3であると仮定すれば、第1の顔画像P1、第2の顔画像P2及び第3の顔画像P3を収集することができる。
ステップS2では、端末機器は、第1の顔画像P1から初期顔画像P0を減算して、第1の差分画像D1を取得する。同様に、第2の顔画像P2から初期顔画像P0を減算して、第2の差分画像D2を取得する。第3の顔画像P3から初期顔画像Pを減算して、第3の差分画像D3を取得する。
ステップS3では、第1の差分画像D1、第2の差分画像D2及び第3の差分画像D3並びにN個の異なる方向に基づいて、端末機器は、法線マップ及び反射率マップを計算して取得する。
ステップS4では、端末機器は、第1の差分画像D1、第2の差分画像D2及び第3の差分画像D3、並びに法線マップ及び反射率マップを生体検出モデルに入力し、該生体検出モデルによって生体顔検出結果を出力する。該生体顔検出結果は、収集されたものが生体顔であるか又は収集されたものが非生体顔であることであってよく、端末機器によって、生成された生体顔検出結果を表示する。
以下、本願における生体顔検出装置を詳細に説明する。図15に参照されるように、図15は、本願の実施例における生体顔検出装置の1つの実施例の概略図であり、生体顔検出装置20は、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュール201であって、ここで、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
取得モジュール201がさらに、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するために用いられる、取得モジュール201と、
N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュール202であって、ここで、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、生成モジュール202と、
取得モジュールにより取得されたN個の差分画像、生成モジュールにより生成された法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュール203と、を含む。
好ましくは、上記図15に対応する各実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
取得モジュール201は、具体的に、初期顔画像を取得するステップと、
目標時間内の第1の時刻に、第1の顔画像を取得するステップと、
目標時間内の第2の時刻に、第2の顔画像を取得するステップであって、ここで、第2の時刻は第1の時刻とは異なる時刻である、ステップと、
目標時間内の第3の時刻に、第3の顔画像を取得するステップであって、ここで、第3の時刻は第1の時刻とは異なる時刻であり、かつ第3の時刻は第2の時刻とは異なる時刻である、ステップと、を実行するために用いられる。
好ましくは、上記図15に対応する各実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
N個の光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ第1の光照射方向、第2の光照射方向及び第3の光照射方向は、異なる方向における光照射であり、
取得モジュール201は、具体的に、初期顔画像を取得するステップと、
第1の光照射方向で第1の顔画像を取得するステップと、
第2の光照射方向で第2の顔画像を取得するステップと、
第3の光照射方向で第3の顔画像を取得するステップと、を実行するために用いられる。
好ましくは、上記図15に対応する各実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、N個の光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ第1の光源位置、第2の光源位置及び第3の光源位置は、同一の直線上に位置しない。
取得モジュール201は、具体的に、端末機器の第1の画面領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップであって、ここで、第1の画面領域は、第1の光源位置に位置し、第1の光照射方向は、第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
端末機器の第2の画面領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップであって、ここで、第2の画面領域は、第2の光源位置に位置し、第2の光照射方向は、第2の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
端末機器の第3の画面領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップであって、ここで、第3の画面領域は、第3の光源位置に位置し、第3の光照射方向は、第3の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、を実行するために用いられる。
好ましくは、上記図15に対応する各実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、N個の光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ第1の光源位置、第2の光源位置及び第3の光源位置は、同一の直線上に位置しない。
取得モジュール201は、具体的に、第1の発光ダイオードの発光領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップであって、ここで、第1の発光領域は、第1の光源位置に位置し、第1の光照射方向は、第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
第2の発光領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップであって、ここで、第2の発光領域は、第2の光源位置に位置し、第2の光照射方向は、第2の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
第3の発光領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップであって、ここで、第3の発光領域は、第3の光源位置に位置し、第3の光照射方向は、第3の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、を実行するために用いられる。
好ましくは、上記図15に対応する各実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
取得モジュール201は、具体的に、初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を実行するために用いられる。
好ましくは、上記図15に対応する実施例を基にした、本願の実施例に係る生体顔検出装置20の他の実施例において、生体顔検出装置20は、計算モジュール204、表示モジュール205及び実行モジュール206をさらに含み、
計算モジュール204は、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するために用いられ、
計算モジュール204は、さらに、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するために用いられ、
計算モジュール204は、さらに、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するために用いられ、
表示モジュール205は、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するために用いられ、
実行モジュール206は、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するために用いられる。
好ましくは、上記図15に対応する実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の変換行列を決定し、
第1の変換行列及び初期顔画像に基づいて、第1の顔画像をアラインメントし、アラインメント後の第1の顔画像を取得し、
アラインメント後の第1の顔画像と初期顔画像とに基づいて、第1の差分画像を生成するために用いられ、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の変換行列を決定し、
第2の変換行列及び初期顔画像に基づいて、第2の顔画像をアラインメントし、アラインメント後の第2の顔画像を取得し、
アラインメント後の第2の顔画像と初期顔画像とに基づいて、第2の差分画像を生成するために用いられ、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の変換行列を決定し、
第3の変換行列及び初期顔画像に基づいて、第3の顔画像をアラインメントし、アラインメント後の第3の顔画像を取得し、
アラインメント後の第3の顔画像と初期顔画像とに基づいて、第3の差分画像を生成するために用いられる。
好ましくは、上記図15に対応する実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、生成モジュール202は、具体的に、第1の差分画像、第2の差分画像及び第3の差分画像に基づいて、法線及び反射率を計算して取得し、
法線に基づいて法線マップを生成し、
反射率に基づいて反射率マップを生成するために用いられる。
好ましくは、上記図15に対応する実施例を基にした、本願の実施例に係る生体顔検出装置20の別の実施例において、生成モジュール202は、具体的に、第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、ここで、第1の差分画像における目標画素点、第2の差分画像における目標画素点及び第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
第1の方程式、第2の方程式、第3の方程式及び第4の方程式に基づいて、目標画素点の法線及び目標画素点の反射率を計算して取得するステップであって、ここで、第4の方程式は法線に対応する3つの方向分類の関係を表す、ステップと、を実行するために用いられ、
生成モジュール202は、具体的に、目標画素点の法線に基づいて、目標画素点に対応する法線マップを生成するために用いられ、
生成モジュール202は、具体的に、目標画素点の反射率に基づいて、目標画素点に対応する反射率マップを生成するために用いられる。
好ましくは、上記図15に対応する実施例を基にした、本願の実施例に係る生体顔検出装置20の他の実施例において、決定モジュール203は、具体的に、N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップと、を実行するために用いられる。
好ましくは、上記図15に対応する実施例を基にした、本願の実施例に係る生体顔検出装置20の他の実施例において、決定モジュール203は、具体的に、サーバにN個の差分画像、法線マップ及び反射率マップを送信することにより、サーバが、N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
サーバから送信される生体顔検出結果を受信するステップと、を実行するために用いられる。
本願の実施例は、生体顔検出装置をさらに提供する。該生体顔検出装置は、電子機器に配置されてよく、該電子機器が端末機器であることを例とすると、すなわち端末機器に、上記図15に対応する実施例において提供された生体顔検出装置を配置して、図3に記載されるステップを実行するために用いられる。図16に示すように、説明を容易にするために、本願の実施例に関連する部分のみを示しており、具体的な技術的詳細が開示されていないため、本願の実施例の方法の部分を参照されたい。該端末機器は、携帯電話、タブレットコンピュータ、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)、販売端末機器(Point of Sales、POS)、車載コンピュータなどの任意の端末機器を含でんよく、端末機器が携帯電話であることを例とする。
図16は、本願の実施例に係る端末機器に関連する携帯電話の部分構造のブロック図を示す。図16に参照されるように、携帯電話は、無線周波数(Radio Frequency、RF)回路310、メモリ320、入力ユニット330、表示ユニット340、センサー350、オーディオ回路360、ワイヤレスフィディリティ(wireless fidelity、WiFi)モジュール370、プロセッサ380及び電源390などの部品を含む。当業者であれば理解できるように、図16に示される携帯電話の構造は、携帯電話を限定するものではなく、図示より多く又はより少ない部品を含むか、又はいくつかの部品を組み合わせるか、又は異なる部品の配置を有してよい。
以下、図16と組み合わせて携帯電話の各構成部品を具体的に説明する。
RF回路310は、情報を送受信するか、又は通話過程において信号を送受信し、特に、基地局の下り情報を受信した後、プロセッサ380に送信して処理させ、また、上りに関連するデータを基地局に送信するために用いられる。一般的に、RF回路310は、アンテナ、少なくとも1つの増幅器、送受信機、カプラ、低雑音増幅器(Low Noise Amplfier、LNA)、デュプレクサなどを含むが、これらに限定されない。また、RF回路310は、さらに無線通信によりネットワーク及び他の装置と通信することができる。上記無線通信は、任意の通信規格又はプロトコルを使用することができ、グローバル移動通信システム(Global System of Mobile communication、GSM)、汎用パケット無線サービス(General Packet Radio Service、GPRS)、符号分割多元接続(Code Division Multiple Access、CDMA)、広帯域符号分割多元接続(Wideband Code Division Multiple Access、WCDMA)、ロングタームエボリューション(Long Term Evolution、LTE)、電子メール、ショートメッセージサービス(Short Messaging Service、SMS)などを含むが、これらに限定されない。
メモリ320は、ソフトウェアプログラム及びモジュールを記憶してよく、プロセッサ380は、メモリ320に記憶されているソフトウェアプログラム及びモジュールを実行することにより、携帯電話の様々な機能アプリケーション及びデータ処理を実行する。メモリ320は、主に、プログラム記憶領域及びデータ記憶領域を含んでよく、ここで、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能(例えば、音声再生機能、画像再生機能など)に必要なアプリケーションプログラムなどを記憶することができ、データ記憶領域は、携帯電話の使用に応じて作成されたデータ(例えば、オーディオデータ、電話帳など)などを記憶することができる。また、メモリ320は、高速ランダムアクセスメモリを含んでよく、不揮発性メモリ、例えば少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の揮発性固体記憶デバイスをさらに含んでよい。
入力ユニット330は、入力された数字又は文字情報を受信し、そして携帯電話のユーザー設定及び機能制御に関連するキー信号入力を生成するために用いられてよい。具体的には、入力ユニット330は、タッチパネル331及び他の入力装置332を含んでよい。タッチパネル331は、タッチスクリーンとも呼ばれ、その上又はその近くでのユーザーのタッチ操作(例えば、ユーザーが指、スタイラスなどの任意の適切な物体又は付属品を用いて行われるタッチパネル331上又はタッチパネル331の近くでの操作)を収集し、かつ所定のプログラムに従って対応する接続装置を駆動することができる。好ましくは、タッチパネル331は、タッチ検出装置及びタッチコントローラの2つの部品を含んでよい。ここで、タッチ検出装置は、ユーザーのタッチ方位を検出し、かつタッチ操作による信号を検出し、信号をタッチコントローラに伝送する。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、タッチポイント座標に変換し、さらにプロセッサ380に送信し、かつプロセッサ380から送信された命令を受信して、実行することができる。また、抵抗式、容量式、赤外線式及び表面弾性波式などの複数のタイプを用いてタッチパネル331を実現することができる。タッチパネル331に加えて、入力ユニット330は、他の入力装置332をさらに含んでよい。具体的には、他の入力装置332は、物理キーボード、機能キー(例えば、ボリューム調節キー、スイッチキーなど)、トラックボール、マウス及び操作レバーのうちの1種以上を含んでよいが、これらに限定されない。
表示ユニット340は、ユーザーによって入力された情報又はユーザーに提供する情報及び携帯電話の様々なメニューを表示するために用いられてよい。表示ユニット340は、表示パネル341を含んでよく、好ましくは、液晶ディスプレイ(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic Light-Emitting Diode、OLED)などの形式を用いて表示パネル341を配置してよい。さらに、タッチパネル331は、表示パネル341をカバーすることができ、タッチパネル331がその上又は近くでのタッチ操作を検出した後、プロセッサ380に送信してタッチイベントのタイプを決定し、その後にプロセッサ380は、タッチイベントのタイプに応じて対応する視覚的出力を表示パネル341に提供する。図16において、タッチパネル331及び表示パネル341は、2つの独立した部品として携帯電話の入出力機能を実現するが、いくつかの実施例において、タッチパネル331と表示パネル341とを集積して携帯電話の入出力機能を実現することができる。
携帯電話は、光センサー、動きセンサー及び他のセンサーなどの少なくとも1種のセンサー350をさらに含んでよい。具体的には、光センサーは、環境光センサー及び近接センサーを含んでよく、ここで、環境光センサーは、環境光線の明るさに応じて表示パネル341の輝度を調節することができ、近接センサーは、携帯電話が耳元に移動するときに、表示パネル341及び/又はバックライトをオフにすることができる。動きセンサーの1種として、加速センサーは、各方向(一般的に3軸)の加速度の大きさを検出することができ、静止時に重力の大きさ及び方向を検出することができ、携帯電話の姿勢の応用(例えば、縦向き/横向きの切替、ゲーム関連、磁力計の姿勢較正)の認識、振動認識に関連する機能(例えば、歩数計、タッピング)などに用いられてよく、携帯電話に、ジャイロスコープ、気圧計、湿度計、温度計、赤外線センサーなどの他のセンサーがさらに配置されてよく、ここでは説明を省略する。
オーディオ回路360、スピーカ361及びマイクロホン362は、ユーザーと携帯電話との間のオーディオインタフェースを提供することができる。オーディオ回路360は、受信されたオーディオデータを変換した後の電気信号を、スピーカ361に伝送し、スピーカ361によって音声信号に変換して出力する一方、マイクロホン362は、収集された音声信号を電気信号に変換し、オーディオ回路360によって受信した後にオーディオデータに変換し、さらにオーディオデータをプロセッサ380に出力して処理した後、RF回路310により例えば別の携帯電話に送信するか、又はオーディオデータをメモリ320に出力してさらに処理する。
WiFiは、短距離無線伝送技術に属し、携帯電話は、WiFiモジュール370により、ユーザーが電子メールを送受信し、ウェブページを閲覧し、ストリーミングメディアを閲覧するなどに役立つことができ、ユーザーに無線のブロードバンドインターネットアクセスを提供する。図16にWiFiモジュール370が示されるが、理解できるように、WiFiモジュール370は、携帯電話の必須構成に属さず、必要に応じて発明の本質を変更しない範囲内で完全に省略されてよい。
プロセッサ380は、携帯電話の制御センターであり、様々なインタフェース及び回線を介して、携帯電話全体の各部分に接続され、メモリ320に記憶されているソフトウェアプログラム及び/又はモジュールを動作させるか又は実行し、そしてメモリ320に記憶されたデータを呼び出すことにより、携帯電話の様々な機能及びデータ処理を実行して、携帯電話全体を監視する。好ましくは、プロセッサ380は、1つ以上の処理ユニットを含んでよく、好ましくは、プロセッサ380には、アプリケーションプロセッサ及びモデムプロセッサが集積されてよく、ここで、アプリケーションプロセッサは、主にオペレーティングシステム、ユーザーインタフェース及びアプリケーションプログラムなどを処理し、モデムプロセッサは、主に無線通信を処理する。理解できるように、上記モデムプロセッサは、プロセッサ380に集積されなくてよい。
携帯電話は、各部品に給電する電源390(例えば、電池)をさらに含み、好ましくは、電源は、電源管理システムによりプロセッサ380と論理的に接続されて、電源管理システムにより充電、放電及び消費電力の管理などの機能を実現することができる。
図示しないが、携帯電話は、カメラ、ブルートゥースモジュールなどをさらに含んでよく、ここでは説明を省略する。
本願の実施例において、該端末機器に含まれるプロセッサ380は、
メモリ内のプログラムを実行することにより、前述の図3~図13に示される実施例に説明された生体顔検出方法を実現する機能をさらに有する。
本願の実施例において、コンピュータで実行されると、コンピュータに、前述の図3~図13に示される実施例に記載される方法における端末機器が実行するステップを実行させるか、又はコンピュータに、前述の図15に示される実施例に記載される方法における端末機器が実行するステップを実行させるコンピュータプログラムが記憶されているコンピュータ可読記憶媒体がさらに提供される。
本願の実施例において、コンピュータで実行されると、コンピュータに、前述の図3~図13に示される実施例に記載される方法における端末機器が実行するステップを実行させるか、又はコンピュータに、前述の図15に示される実施例に記載される方法における端末機器が実行するステップを実行させるプログラムを含むコンピュータプログラム製品がさらに提供される。
当業者であれば明確に把握できるように、便利かつ簡潔で説明するために、上記説明したシステム、装置及びユニットの具体的な作業過程については、前述の方法の実施例における対応する過程を参照することができ、ここでは説明を省略する。
本願に係るいくつかの実施例において、開示されたシステム、装置及び方法は、他の方式で実現されてもよいことを理解されたい。例えば、以上説明した装置の実施例は、例示的なものに過ぎず、例えば、上記ユニットの区分は、論理上の機能の区分に過ぎず、実際に実現する場合に他の区分方式も可能である。例えば、複数のユニット又はコンポーネントは組み合わせられてもよく、又は別のシステムに集積されてもよく、又はいくつかの特徴を無視してもよく、遂行しなくてもよい。また、表示されるか又は議論される相互カップリング、直接カップリング又は通信結合は、いくつかのインタフェースにより実現されてよく、装置又はユニット間の間接カップリング又は通信結合は、電気的、機械的、又は他の形式であってよい。
別個の部品として説明した上記ユニットは、物理的に別個であってもなくてもよく、ユニットとして表示される部品は、物理的ユニットであってもなくてもよい。すなわち、1つの箇所に位置してもよく、複数のネットワークユニットに分散されてもよい。実際の需要に応じて、その中の一部又は全部のユニットを選択して本実施例の技術案の目的を達成することができる。
また、本願の各実施例における各機能ユニットが1つの処理ユニットに集積されてもよく、各ユニットが単独で物理的に存在してもよく、2つ以上のユニットが1つのユニットに集積されてもよい。上記集積されたユニットは、ハードウェアの形式を採用して実現されてもよく、ソフトウェア機能ユニットの形式を採用して実現されてもよい。
上記集積されたユニットは、ソフトウェア機能ユニットの形式で実現され、かつ独立した製品として販売又は使用される場合、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づいて、本願の技術手段の本質的な又は従来技術に貢献する部分、又は該技術手段の全て又は一部は、ソフトウェア製品の形式で実現することができる。該コンピュータソフトウェア製品は、1台のコンピュータ設備(パーソナルコンピュータ、サーバ、又はネットワーク設備などであってよい)に本願の各実施例に記載の方法の全て又は一部のステップを遂行させるいくつかの命令を含む記憶媒体に記憶されている。前述の記憶媒体は、USBフラッシュメモリ、リムーバブルハードディスク、読み出し専用メモリ(read-only memory、ROM)、ランダムアクセスメモリ(random access memory、RAM)、磁気ディスク又は光ディスクなどの、プログラムコードを記憶可能な様々な媒体を含む。
上述したように、以上の実施例は、本願の技術手段を説明するために用いられるものに過ぎず、限定するものではない。前述した実施例を参照して本願を詳細に説明したが、当業者が理解すべきこととして、依然として、前述の各実施例において記載される技術手段をに変更を加えるか、又はその技術的特徴の一部に同等置換を行うことができる。これらの変更又は置換によって、対応する技術手段の本質は、本願の各実施例の技術手段の精神及び範囲から逸脱することがない。
20 生体顔検出装置
201 取得モジュール
202 生成モジュール
203 決定モジュール
204 計算モジュール
205 表示モジュール
206 実行モジュール
310 RF回路
320 メモリ
330 入力ユニット
331 タッチパネル
332 入力装置
340 表示ユニット
341 表示パネル
350 センサー
360 オーディオ回路
361 スピーカ
362 マイクロホン
370 WiFiモジュール
380 プロセッサ
390 電源

Claims (15)

  1. 端末機器又はサーバにより実行される生体顔検出方法であって、
    初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するステップであって、前記顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の前記光照射方向は互いに異なる光照射方向であり、かつN個の前記光照射方向はN個の光源位置に対応し、N個の前記光源位置は同一の直線上に位置せず、Nは3以上の整数である、ステップと、
    前記初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得するステップと、
    N個の前記差分画像及びN個の前記光照射方向に基づいて、法線マップ及び反射率マップを生成するステップであって、前記法線マップは、各画素点に対応する法線に基づいて構成された画像であり、前記反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、ステップと、
    N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップと、を含む方法。
  2. 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する前記ステップは、
    前記初期顔画像を取得するステップと、
    目標時間内の第1の時刻に、前記第1の顔画像を取得するステップと、
    前記目標時間内の第2の時刻に、前記第2の顔画像を取得するステップであって、前記第2の時刻は前記第1の時刻とは異なる時刻である、ステップと、
    前記目標時間内の第3の時刻に、前記第3の顔画像を取得するステップであって、前記第3の時刻は前記第1の時刻とは異なる時刻であり、かつ前記第3の時刻は前記第2の時刻とは異なる時刻である、ステップと、を含む請求項1に記載の方法。
  3. 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
    N個の前記光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ前記第1の光照射方向、前記第2の光照射方向及び前記第3の光照射方向は、異なる方向における光照射であり、
    初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する前記ステップは、
    前記初期顔画像を取得するステップと、
    前記第1の光照射方向で前記第1の顔画像を取得するステップと、
    前記第2の光照射方向で前記第2の顔画像を取得するステップと、
    前記第3の光照射方向で前記第3の顔画像を取得するステップと、を含む請求項1に記載の方法。
  4. N個の前記光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ前記第1の光源位置、前記第2の光源位置及び前記第3の光源位置は、同一の直線上に位置せず、
    第1の光照射方向で前記第1の顔画像を取得する前記ステップは、
    端末機器の第1の画面領域が点灯するときに、前記第1の光照射方向で前記第1の顔画像を収集するステップを含み、前記第1の画面領域は、前記第1の光源位置に位置し、前記第1の光照射方向は、前記第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
    第2の光照射方向で前記第2の顔画像を取得する前記ステップは、
    前記端末機器の第2の画面領域が点灯するときに、前記第2の光照射方向で前記第2の顔画像を収集するステップを含み、前記第2の画面領域は、前記第2の光源位置に位置し、前記第2の光照射方向は、前記第2の画面領域が点灯するときに前記認識対象の顔を照射する対応する方向であり、
    第3の光照射方向で前記第3の顔画像を取得する前記ステップは、
    前記端末機器の第3の画面領域が点灯するときに、前記第3の光照射方向で前記第3の顔画像を収集するステップを含み、前記第3の画面領域は、前記第3の光源位置に位置し、前記第3の光照射方向は、前記第3の画面領域が点灯するときに前記認識対象の顔を照射する対応する方向である、請求項3に記載の方法。
  5. N個の前記光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ前記第1の光源位置、前記第2の光源位置及び前記第3の光源位置は、同一の直線上に位置せず、
    第1の光照射方向で前記第1の顔画像を取得する前記ステップは、
    第1の発光領域が点灯するときに、前記第1の光照射方向で前記第1の顔画像を収集するステップを含み、前記第1の発光領域は、前記第1の光源位置に位置し、前記第1の光照射方向は、前記第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
    第2の光照射方向で前記第2の顔画像を取得する前記ステップは、
    第2の発光領域が点灯するときに、前記第2の光照射方向で前記第2の顔画像を収集するステップを含み、前記第2の発光領域は、前記第2の光源位置に位置し、前記第2の光照射方向は、前記第2の発光領域が点灯するときに前記認識対象の顔を照射する対応する方向であり、
    第3の光照射方向で前記第3の顔画像を取得する前記ステップは、
    第3の発光領域が点灯するときに、前記第3の光照射方向で前記第3の顔画像を収集するステップを含み、前記第3の発光領域は、前記第3の光源位置に位置し、前記第3の光照射方向は、前記第3の発光領域が点灯するときに前記認識対象の顔を照射する対応する方向である、請求項3に記載の方法。
  6. 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
    初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得する前記ステップは、
    前記初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、前記初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
    前記第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、前記第1の顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
    前記第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、前記第2の顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
    前記第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、前記第3の顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
    前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、前記第1の差分画像はN個の前記差分画像のうちの1つの差分画像である、ステップと、
    前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、前記第2の差分画像はN個の前記差分画像のうちの、前記第1の差分画像とは異なる1つの差分画像である、ステップと、
    前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、前記第3の差分画像はN個の前記差分画像のうちの、前記第1の差分画像及び前記第2の差分画像とは異なる1つの差分画像であるステップと、を含む請求項1に記載の方法。
  7. 前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するステップと、
    前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するステップと、
    前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するステップと、
    前記第1のキーポイントオフセット量、前記第2のキーポイントオフセット量及び前記第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するステップと、
    前記第1のキーポイントオフセット量、前記第2のキーポイントオフセット量及び前記第3のキーポイントオフセット量がいずれも前記オフセット閾値より小さければ、前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成し、前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するステップと、をさらに含む請求項6に記載の方法。
  8. 初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成する前記ステップは、
    前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の変換行列を決定するステップと、
    前記第1の変換行列及び前記初期顔画像に基づいて、前記第1の顔画像を位置合わせして、アラインメント後の第1の顔画像を取得するステップと、
    前記アラインメント後の第1の顔画像と前記初期顔画像とに基づいて、前記第1の差分画像を生成するステップと、を含み、
    初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成する前記ステップは、
    前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の変換行列を決定するステップと、
    前記第2の変換行列及び前記初期顔画像に基づいて、前記第2の顔画像を位置合わせして、アラインメント後の第2の顔画像を取得するステップと、
    前記アラインメント後の第2の顔画像と前記初期顔画像とに基づいて、前記第2の差分画像を生成するステップと、を含み、
    前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップは、
    前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の変換行列を決定するステップと、
    前記第3の変換行列及び前記初期顔画像に基づいて、前記第3の顔画像を位置合わせして、アラインメント後の第3の顔画像を取得するステップと、
    前記アラインメント後の第3の顔画像と前記初期顔画像とに基づいて、前記第3の差分画像を生成するステップと、を含む請求項6に記載の方法。
  9. N個の前記差分画像に基づいて、法線マップ及び反射率マップを生成する前記ステップは、
    前記第1の差分画像、前記第2の差分画像及び前記第3の差分画像に基づいて、法線及び反射率を計算して取得するステップと、
    前記法線に基づいて、前記法線マップを生成するステップと、
    前記反射率に基づいて、前記反射率マップを生成するステップと、を含む請求項6に記載の方法。
  10. 前記第1の差分画像、前記第2の差分画像及び前記第3の差分画像に基づいて、法線及び反射率を計算して取得する前記ステップは、
    前記第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
    前記第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
    前記第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、前記第1の差分画像における目標画素点、前記第2の差分画像における目標画素点及び前記第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
    前記第1の方程式、前記第2の方程式、前記第3の方程式及び第4の方程式に基づいて、前記目標画素点の法線及び前記目標画素点の反射率を計算して取得するステップであって、前記第4の方程式は前記法線に対応する3つの方向分類の関係を表す、ステップと、を含み、
    前記法線に基づいて、前記法線マップを生成する前記ステップは、
    前記目標画素点の法線に基づいて、前記目標画素点に対応する法線マップを生成するステップを含み、
    前記反射率に基づいて、前記反射率マップを生成する前記ステップは、
    前記目標画素点の反射率に基づいて、前記目標画素点に対応する反射率マップを生成するステップを含む請求項9に記載の方法。
  11. N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップは、
    N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、前記認識対象の顔は前記初期顔画像及び前記顔画像集合に含まれる、ステップと、
    前記認識対象の顔に対応する生体確率に基づいて、前記認識対象の顔に対応する前記生体顔検出結果を決定するステップと、を含む請求項1~10のいずれか一項に記載の方法。
  12. N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップは、
    サーバにN個の前記差分画像、前記法線マップ及び前記反射率マップを送信することにより、前記サーバが、N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ前記認識対象の顔に対応する生体確率に基づいて、前記認識対象の顔に対応する前記生体顔検出結果を決定するステップであって、前記認識対象の顔は前記初期顔画像及び前記顔画像集合に含まれる、ステップと、
    前記サーバから送信される前記生体顔検出結果を受信するステップと、を含む請求項1~10のいずれか一項に記載の方法。
  13. 生体顔検出装置であって、
    初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュールであって、前記顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の前記光照射方向は互いに異なる光照射方向であり、かつN個の前記光照射方向はN個の光源位置に対応し、N個の前記光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
    前記取得モジュールがさらに、前記初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得するために用いられる、取得モジュールと、
    N個の前記差分画像及びN個の前記光照射方向に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュールであって、前記法線マップは各画素点に対応する法線に基づいて構成された画像であり、前記反射率マップは各画素点に対応する反射率に基づいて構成された画像である、生成モジュールと、
    前記取得モジュールにより取得されたN個の前記差分画像、前記生成モジュールにより生成された前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュールと、を含む生体顔検出装置。
  14. メモリ、送受信機、プロセッサ及びバスシステムを含み、
    前記メモリは、プログラムを記憶するために用いられ、
    前記プロセッサは、前記メモリにおけるプログラムを実行することにより、上記請求項1~12のいずれか一項に記載の方法を実現するために用いられ、
    前記バスシステムは、前記メモリ及び前記プロセッサを接続することにより、前記メモリ及び前記プロセッサに通信させるために用いられる、電子機器。
  15. コンピュータ上で実行されると、前記コンピュータに請求項1~12のいずれか一項に記載の方法を実行させる、命令を含むコンピュータプログラム。
JP2022521013A 2020-01-17 2020-10-10 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム Active JP7286208B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010055343.3 2020-01-17
CN202010055343.3A CN111310575B (zh) 2020-01-17 2020-01-17 一种人脸活体检测的方法、相关装置、设备及存储介质
PCT/CN2020/120105 WO2021143216A1 (zh) 2020-01-17 2020-10-10 一种人脸活体检测的方法和相关装置

Publications (2)

Publication Number Publication Date
JP2022551139A JP2022551139A (ja) 2022-12-07
JP7286208B2 true JP7286208B2 (ja) 2023-06-05

Family

ID=71156332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022521013A Active JP7286208B2 (ja) 2020-01-17 2020-10-10 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11854310B2 (ja)
EP (1) EP4012607A4 (ja)
JP (1) JP7286208B2 (ja)
CN (1) CN111310575B (ja)
WO (1) WO2021143216A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310575B (zh) 2020-01-17 2022-07-08 腾讯科技(深圳)有限公司 一种人脸活体检测的方法、相关装置、设备及存储介质
CN111680675B (zh) * 2020-08-14 2020-11-17 腾讯科技(深圳)有限公司 人脸活体检测方法、系统、装置、计算机设备和存储介质
CN112804447B (zh) * 2020-12-30 2023-01-17 北京石头创新科技有限公司 一种检测近场物体的方法、装置、介质和电子设备
CN113849314A (zh) * 2021-09-30 2021-12-28 支付宝(杭州)信息技术有限公司 一种数据处理模型部署方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170046563A1 (en) 2015-08-10 2017-02-16 Samsung Electronics Co., Ltd. Method and apparatus for face recognition
US20180173979A1 (en) 2015-06-29 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Living body detection method, living body detection system, and computer program product

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9123116B2 (en) * 2011-04-19 2015-09-01 University Of Southern California Multiview face capture using polarized spherical gradient illumination
US8224018B2 (en) * 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US8493178B2 (en) * 2008-12-02 2013-07-23 Electronics And Telecommunications Research Institute Forged face detecting method and apparatus thereof
CN105320947B (zh) * 2015-11-04 2019-03-01 博宏信息技术有限公司 一种基于光照成分的人脸活体检测方法
CN105488486B (zh) * 2015-12-07 2018-10-30 清华大学 防止照片攻击的人脸识别方法及装置
CN105574509B (zh) * 2015-12-16 2019-01-15 天津科技大学 一种基于光照的人脸识别系统回放攻击检测方法及应用
CN106203305B (zh) * 2016-06-30 2020-02-04 北京旷视科技有限公司 人脸活体检测方法和装置
CN106778518B (zh) * 2016-11-24 2021-01-08 汉王科技股份有限公司 一种人脸活体检测方法及装置
CN107992794B (zh) * 2016-12-30 2019-05-28 腾讯科技(深圳)有限公司 一种活体检测方法、装置和存储介质
US10922395B2 (en) * 2018-01-05 2021-02-16 Stmicroelectronics, Inc. Facial authentication systems and methods utilizing time of flight sensing
WO2019196559A1 (zh) * 2018-04-12 2019-10-17 Oppo广东移动通信有限公司 人脸识别方法、装置及移动终端、存储介质
CN110110597B (zh) 2019-04-02 2021-08-27 北京旷视科技有限公司 活体检测方法、装置及活体检测终端
CN111310575B (zh) * 2020-01-17 2022-07-08 腾讯科技(深圳)有限公司 一种人脸活体检测的方法、相关装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180173979A1 (en) 2015-06-29 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Living body detection method, living body detection system, and computer program product
US20170046563A1 (en) 2015-08-10 2017-02-16 Samsung Electronics Co., Ltd. Method and apparatus for face recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. Matias Di Martino et al.,Liveness Detection Using Implicit 3D Features,[online],2018年04月18日,internet,[retrievd on 2023.04.18], <https://arxiv.org/pdf/1804.06702v1.pdf>

Also Published As

Publication number Publication date
EP4012607A4 (en) 2022-12-07
CN111310575B (zh) 2022-07-08
EP4012607A1 (en) 2022-06-15
CN111310575A (zh) 2020-06-19
US20220148336A1 (en) 2022-05-12
JP2022551139A (ja) 2022-12-07
WO2021143216A1 (zh) 2021-07-22
US11854310B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
JP7286208B2 (ja) 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム
CN110163048B (zh) 手部关键点的识别模型训练方法、识别方法及设备
CN110348543B (zh) 眼底图像识别方法、装置、计算机设备及存储介质
WO2019101021A1 (zh) 图像识别方法、装置及电子设备
CN111079576B (zh) 活体检测方法、装置、设备及存储介质
CN108594997B (zh) 手势骨架构建方法、装置、设备及存储介质
WO2020224479A1 (zh) 目标的位置获取方法、装置、计算机设备及存储介质
CN109947886B (zh) 图像处理方法、装置、电子设备及存储介质
CN107833219B (zh) 图像识别方法及装置
CN112036331B (zh) 活体检测模型的训练方法、装置、设备及存储介质
CN111541907B (zh) 物品显示方法、装置、设备及存储介质
CN111242090B (zh) 基于人工智能的人脸识别方法、装置、设备及介质
CN110570460B (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN110544272A (zh) 脸部跟踪方法、装置、计算机设备及存储介质
CN112749613B (zh) 视频数据处理方法、装置、计算机设备及存储介质
CN113591517A (zh) 一种活体检测方法及相关设备
CN111597922A (zh) 细胞图像的识别方法、系统、装置、设备及介质
CN111598896A (zh) 图像检测方法、装置、设备及存储介质
CN114333031A (zh) 活体检测模型的漏洞检测方法、装置及存储介质
CN112818733B (zh) 信息处理方法、装置、存储介质及终端
CN112115748B (zh) 证件图像识别方法、装置、终端及存储介质
CN114140839B (zh) 用于人脸识别的图像发送方法、装置、设备及存储介质
CN111310701B (zh) 手势识别方法、装置、设备及存储介质
CN113743186A (zh) 医学图像的处理方法、装置、设备及存储介质
CN113298040A (zh) 关键点检测方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R150 Certificate of patent or registration of utility model

Ref document number: 7286208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150