JP7264308B2 - 二次元顔画像の2つ以上の入力に基づいて三次元顔モデルを適応的に構築するためのシステムおよび方法 - Google Patents
二次元顔画像の2つ以上の入力に基づいて三次元顔モデルを適応的に構築するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7264308B2 JP7264308B2 JP2022505735A JP2022505735A JP7264308B2 JP 7264308 B2 JP7264308 B2 JP 7264308B2 JP 2022505735 A JP2022505735 A JP 2022505735A JP 2022505735 A JP2022505735 A JP 2022505735A JP 7264308 B2 JP7264308 B2 JP 7264308B2
- Authority
- JP
- Japan
- Prior art keywords
- server
- inputs
- facial
- face
- axis distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
顔認識に基づく生体認証システムが現実世界の用途でますます広く使用されるようになるにつれて、生体なりすまし(顔なりすましまたはプレゼンテーション攻撃としても知られる)はより大きな脅威となる。顔なりすましは、印刷攻撃、リプレイ攻撃、および3Dマスクを含むことができる。顔認識システムにおける顔なりすまし防止技術に対する現在のアプローチは、このような攻撃を認識しようとしており、一般に、いくつかの領域、すなわち画質、コンテキスト情報、および局所テクスチャ分析に分類される。具体的には、現在のアプローチは、主に実画像と偽画像との間の輝度成分の局所テクスチャパターンの分析および区別に焦点を当ててきた。しかしながら、現在のアプローチは、典型的には単一の画像に基づいており、このようなアプローチは、なりすまし顔画像を判定するための局所特徴(または単一の画像に固有の特徴)の使用に限定される。また、既存の画像センサは典型的に、人間ほど効果的に顔のライブネスを判定するのに十分な情報を生成する能力を有していない。顔のライブネスは、情報が3D画像に関連するか否かを判定することを含むことが、理解され得る。これは、深度情報などのグローバルコンテキスト情報は画像センサ(または画像取込デバイス)によって取り込まれた2D顔画像では失われることが多く、人物の単一の顔画像内の局所情報は一般に、顔のライブネスの正確で信頼できる評価を提供するのに不十分であるからである。
例示的な実施形態は、単なる例として、図面を参照して記載される。図中の類似の参照番号および参照符号は、類似の要素または同等物を指す。
本発明の様々な実施形態では、顔の生体検出のためのシステムは、2つのサブシステム、すなわち取込サブシステムおよび決定サブシステムを備えることができる。取込サブシステムは、入力取込デバイス108およびセンサ110を含むことができる。決定サブシステムは、処理モジュール102および決定モジュール112を含むことができる。取込サブシステムは、画像センサ(たとえばRGBカメラおよび/または赤外線カメラ)および1つ以上の動きセンサからデータを受信するように構成されることが可能である。決定サブシステムは、取込サブシステムによって提供される情報に基づいて、生体検出および顔検証のための決定を提供するように構成されることが可能である。
顔のライブネスは、いくつかの立体顔画像が入力取込デバイスに対して異なる距離で取り込まれる場合、なりすまし画像および/またはビデオと区別され得る。顔のライブネスはまた、実際の顔に固有の特定の顔特徴に基づいて、なりすまし画像および/またはビデオと区別されることも可能である。画像センサに近い実際の顔からの顔画像の顔特徴は、画像センサから遠い実際の顔からの画像の顔特徴よりも相対的に大きく見える。これは、たとえば広角レンズを有する画像センサを使用する距離によって生じた遠近歪みに起因する。次いで、例示的な実施形態は、顔画像を本物またはなりすましとして分類するために、これらの明確な違いを活用することができる。異なるカメラ視野角に対して遠距離または近距離で一連の顔ランドマーク(または明確な顔特徴)を識別するステップを含む、3D顔モデルを本物またはなりすましに分類するためにニューラルネットワークを訓練する方法もまた開示される。
図3は、本発明の実施形態による、顔画像の信頼性を判定するためのシーケンス図300を示す。シーケンス図300は、ライブネス決定データフロープロセスとしても知られている。図4は、本発明の実施形態による、動きセンサ情報および画像センサ情報を取得するためのシーケンス図400(ライブネスプロセス400としても知られる)を示す。図4は、図3のシーケンス図300を参照して説明される。ライブネスプロセス400、ならびにライブネス決定データフロープロセス300は、2つ以上の入力が画像取込デバイスから異なる距離で取り込まれる、2D顔画像の2つ以上の入力のモーションキャプチャ302、ならびに1つ以上の動きセンサからの動き情報の取込304で始まる。様々な実施形態では、2つ以上の入力はまた、画像取込デバイスから異なる角度で取り込まれることも可能である。画像取込デバイスは、サーバ100の入力取込デバイス108であり得、1つ以上の動きセンサはサーバ100のセンサ110であり得る。本発明の様々な実施形態では、サーバ100はモバイルデバイスであり得る。情報は処理モジュール102に送信されることが可能であり、処理モジュール102は、情報を決定モジュール112に送信する前に、収集された情報が良質であること(輝度、鮮明度など)を保証するために事前ライブネス品質チェックを実行するように構成されることが可能である。本発明の実施形態では、デバイスの姿勢、ならびにデバイスの加速度も含むセンサデータもまた、取込プロセス304で取り込まれることが可能である。データは、ユーザがライブネスチャレンジに正しく応答したか否かを判定するのに役立つことができる。たとえば、ユーザの頭部は、入力取込デバイスの画像センサの投射に対して相対的に中心に位置合わせされることが可能であり、被写体の頭部位置、ロール、ピッチ、ヨーは、カメラに対して比例的に直線状でなければならない。一連の画像は、遠くのバウンディングボックス(bounding box)から始まって近くのバウンディングボックスに向かって徐々に移動しながら取り込まれる。
事前ライブネス品質チェック306は、収集されたデータが良質であり、ユーザの注意を伴わずに取り込まれないことを確実にするために2つ以上の入力の顔および背景の輝度、顔の鮮明度、ユーザの視線をチェックするステップを含むことができる。取り込まれた画像は、目距離(左目と右目との間の距離)によってソートされることが可能であり、同様の目距離を含む画像は除去され、目距離は入力取込デバイスに対する顔画像の近接度を示す。データ収集中に、視線検出、ボケ検出、または明度検出など、別の前処理方法が適用されてもよい。これは、取り込まれた画像にヒューマンエラーによって生じる環境の歪み、ノイズ、または外乱がないことを保証するためである。
入力取込デバイス108によって顔が取り込まれると、情報は一般に、平面2D画像センサ(たとえばCCDまたはCMOSセンサ)上に知覚的に投影される。平面2D画像センサ上への3D物体(たとえば顔)の投射は、顔認識および生体検出のための2D数学的データへの3D顔の変換を可能にすることができる。しかしながら、変換の結果、深度情報が失われる可能性がある。深度情報を維持するために、集光点への異なる距離/角度を有する複数のフレームが取り込まれ、3D顔被写体を2Dなりすましと区別するためにまとめて使用される。本発明の様々な実施形態では、ユーザが遠近法における変化を可能にするようにユーザの顔に対して自分のデバイスを(並進的におよび/または回転的に)移動するように促される、ライブネスチャレンジ404が含まれ得る。ユーザが画像センサのフレーム内に自分の顔を収めることができる限り、登録または検証中にユーザのデバイスの移動は制限されない。
図2に示され、前の段落で言及された、(ii)2D顔画像の2つ以上の入力の各々の少なくとも1点に関する深度情報を決定するステップ、および(iii)深度情報の決定に応答して3D顔モデルを構築するステップが、より詳細に説明される。画像取込デバイスから異なる距離で取り込まれた2D顔画像の2つ以上の入力は、2D顔画像の2つ以上の入力の各々の少なくとも1点に関する深度情報を決定するために処理される。2D顔画像の2つ以上の入力の処理は、図1の処理モジュール102によって実行され得る。データ処理は、データフィルタリング、データ正規化、およびデータ変換を含むことができる。データフィルタリングでは、動きボケ、焦点ボケ、または生体検出にとって重要でも必要でもない余分なデータを伴って取り込まれた画像が除去され得る。データ正規化は、異なる入力取込デバイス間のハードウェアの違いに起因してデータに導入されたバイアスを除去することができる。データ変換では、データは、3次元シーンにおける人物の顔原点を記述する特徴ベクトルに変換され、特徴および属性の組み合わせ、ならびに人物の顔の幾何学的特性の計算を伴うことができる。データ処理はまた、たとえば入力取込デバイスの画像センサの構成から生じる差から、データノイズの一部を除去することもできる。データ処理はまた、3D顔の遠近歪みを2Dなりすまし顔と区別するために使用される顔特徴への焦点を強化することもできる。
基準点doを除く顔ランドマークの各ランドマークについて、
x_距離=|ランドマーク.x-基準点.x|
y_距離=|ランドマーク.y-基準点.y|
具体的には、出力710、712、714は線形回帰716を使用して低減され、各特徴点は線形回帰を使用して線に適合され、特徴点ペアを結ぶ線の勾配が取得される。出力は、一連の属性値722である。線形回帰に適合される前に一連の特徴点を平滑化するために、小移動平均またはその他の平滑化関数が使用され得る。このように、2D顔画像の顔属性値722が決定され、顔属性722の決定に応答して3D顔モデルが構築されることが可能である。
次いで、人物の深度特徴ベクトル、ならびにロール、ピッチ、およびヨーの3つの回転値の平均は、顔のライブネスの正確な予測を取得するために、分類プロセスを受ける。分類プロセスでは、顔のライブネスを検出するために、基本的な顔構成、ならびにモバイルデバイスの空間および配向情報、ならびに人物の頭部姿勢が深層学習モデルに供給される。
二次元(2D)顔画像の2つ以上の入力に基づいて三次元(3D)顔モデルを適応的に構築するためのサーバであって、前記サーバは、
少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つのメモリと
を備え、
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに少なくとも、
入力取込デバイスから、前記2D顔画像の前記2つ以上の入力であって、前記画像取込デバイスから異なる距離で取り込まれる前記2つ以上の入力を受信させ、
前記2D顔画像の前記2つ以上の入力の各々の少なくとも1点に関する深度情報を決定させ、
前記深度情報の決定に応答して前記3D顔モデルを構築させる
ように構成されている、サーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに、
前記2つ以上の入力の第1の入力における2つの基準点の間の第1のx軸距離および第1のy軸距離であって、それぞれx軸方向およびy軸方向の前記2つの基準点間の距離を表す前記第1のx軸距離および前記第1のy軸距離を決定させ、
前記2つ以上の入力の第2の入力における2つの基準点の間の第2のx軸距離および第2のy軸距離であって、それぞれx軸方向およびy軸方向の前記2つの基準点間の距離を表す前記第2のx軸距離および前記第2のy軸距離を決定させる
ように構成されている、付記1に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに、
前記深度情報を決定するために、(i)前記第1のx軸距離および前記第2のx軸距離、ならびに(ii)前記第1のy軸距離および前記第2のy軸距離のうちの少なくとも1つの差を決定させる
ように構成されている、付記2に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記画像取込デバイスに対して異なる距離および角度で前記2つ以上の入力を取り込むように前記画像取込デバイスを制御させる
ように構成されている、付記1に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記2D顔画像の顔属性を決定させるように構成され、前記顔属性の決定に応答して前記3D顔モデルが構築される
付記1に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記2D顔画像の回転情報を決定させるように構成され、前記回転情報の決定に応答して前記3D顔モデルが構築される
付記1に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
(i)前記第1のx軸距離および前記第2のx軸距離、ならびに(ii)前記第1のy軸距離および前記第2のy軸距離のうちの少なくとも1つの差に応答して前記画像取込デバイスを制御させる
ように構成されている、付記1に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記2D顔画像のさらなる入力の取得を停止するように前記画像取込デバイスを制御させる
ように構成されている、付記7に記載のサーバ。
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに、
前記顔画像の信頼性を検出するための少なくとも1つのパラメータを決定する
ように構成されている、付記1に記載のサーバ。
二次元(2D)顔画像の2つ以上の入力に基づいて三次元(3D)顔モデルを適応的に構築するための方法であって、前記方法は、
入力取込デバイスから、前記2D顔画像の前記2つ以上の入力であって、前記画像取込デバイスから異なる距離で取り込まれる前記2つ以上の入力を受信することと、
前記2D顔画像の前記2つ以上の入力の各々の少なくとも1点に関する深度情報を決定することと、
前記深度情報の決定に応答して前記3D顔モデルを構築することと
を含む方法。
前記2D顔画像の前記2つ以上の入力の各々の少なくとも1点に関する深度情報を決定するステップは、
前記2つ以上の入力の第1の入力における2つの基準点の間の第1のx軸距離および第1のy軸距離であって、それぞれx軸方向およびy軸方向の前記2つの基準点間の距離を表す前記第1のx軸距離および前記第1のy軸距離を決定することと、
前記2つ以上の入力の第2の入力における2つの基準点の間の第2のx軸距離および第2のy軸距離であって、それぞれx軸方向およびy軸方向の前記2つの基準点間の距離を表す前記第2のx軸距離および前記第2のy軸距離を決定することと
を含む、付記10に記載の方法。
前記2D顔画像の前記2つ以上の入力の各々の少なくとも1点に関する深度情報を決定するステップは、
前記深度情報を決定するために、(i)前記第1のx軸距離および前記第2のx軸距離、ならびに(ii)前記第1のy軸距離および前記第2のy軸距離のうちの少なくとも1つの差を決定すること
をさらに含む、付記11に記載の方法。
前記2つ以上の入力は、前記画像取込デバイスに対して異なる距離および角度で取り込まれる、付記10に記載の方法。
前記2D顔画像の顔属性を決定することをさらに含み、前記顔属性の決定に応答して前記3D顔モデルが構築される
付記10に記載の方法。
前記2D顔画像の回転情報を決定することをさらに含み、前記回転情報の決定に応答して前記3D顔モデルが構築される
付記10に記載の方法。
前記2D顔画像の前記2つ以上の入力を取り込むために、(i)前記第1のx軸距離および前記第2のx軸距離、ならびに(ii)前記第1のy軸距離および前記第2のy軸距離のうちの少なくとも1つの差に応答して前記画像取込デバイスを制御すること
をさらに含む、付記10に記載の方法。
前記2D顔画像のさらなる入力の取得を停止するように前記画像取込デバイスを制御すること
をさらに含む、付記16に記載の方法。
前記3D顔モデルを構築するステップは、
前記顔画像の信頼性を検出するための少なくとも1つのパラメータを決定すること
を含む、付記10に記載の方法。
Claims (10)
- 三次元(3D)顔モデルを適応的に構築するためのサーバであって、前記サーバは、
1つの画像取込デバイスと、
少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つのメモリと
を備え、
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに少なくとも、
開口の大きさが異なるカメラシャッター絞りをそれぞれ示す複数のユーザインタフェースを表示することにより、前記1つの画像取込デバイスを用いて、異なる距離で同一人物の2つ以上の二次元(2D)顔画像を取り込ませ、
前記2D顔画像の2つ以上の入力の各々の少なくとも1点に関する深度情報を決定させ、
前記深度情報の決定に応答して前記3D顔モデルを構築させる、
サーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに、
前記2つ以上の入力の第1の入力における2つの基準点の間の第1のx軸距離および第1のy軸距離であって、それぞれx軸方向およびy軸方向の前記2つの基準点間の距離を表す前記第1のx軸距離および前記第1のy軸距離を決定させ、
前記2つ以上の入力の第2の入力における2つの基準点の間の第2のx軸距離および第2のy軸距離であって、それぞれx軸方向およびy軸方向の前記2つの基準点間の距離を表す前記第2のx軸距離および前記第2のy軸距離を決定させる
ように構成されている、請求項1に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに、
前記深度情報を決定するために、(i)前記第1のx軸距離および前記第2のx軸距離、ならびに(ii)前記第1のy軸距離および前記第2のy軸距離のうちの少なくとも1つの差を決定させる
ように構成されている、請求項2に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記画像取込デバイスに対して異なる距離および角度で前記2つ以上の入力を取り込むように前記画像取込デバイスを制御させる
ように構成されている、請求項1に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記2D顔画像の顔属性を決定させるように構成され、前記顔属性の決定に応答して前記3D顔モデルが構築される
請求項1に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記2D顔画像の回転情報を決定させるように構成され、前記回転情報の決定に応答して前記3D顔モデルが構築される
請求項1に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
(i)前記2つ以上の入力の第1の入力における2つの基準点の間の第1のx軸距離および前記2つ以上の入力の第2の入力における2つの基準点の間の第2のx軸距離、ならびに(ii)前記2つ以上の入力の第1の入力における2つの基準点の間の第1のy軸距離および前記2つ以上の入力の第2の入力における2つの基準点の間の第2のy軸距離のうちの少なくとも1つの差に応答して前記画像取込デバイスを制御させる
ように構成されている、請求項1に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバにさらに、
前記2D顔画像のさらなる入力の取得を停止するように前記画像取込デバイスを制御させる
ように構成されている、請求項7に記載のサーバ。 - 前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記サーバに、
前記顔画像の信頼性を検出するための少なくとも1つのパラメータを決定する
ように構成されている、請求項1に記載のサーバ。 - 三次元(3D)顔モデルを適応的に構築するための方法であって、前記方法は、
開口の大きさが異なるカメラシャッター絞りをそれぞれ示す複数のユーザインタフェースを表示することにより、1つの画像取込デバイスを用いて、異なる距離で同一人物の2つ以上の二次元(2D)顔画像を取り込むことと、
前記2D顔画の2つ以上の入力の各々の少なくとも1点に関する深度情報を決定することと、
前記深度情報の決定に応答して前記3D顔モデルを構築することと
を含む方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10201902889VA SG10201902889VA (en) | 2019-03-29 | 2019-03-29 | System and Method for Adaptively Constructing a Three-Dimensional Facial Model Based on Two or More Inputs of a Two- Dimensional Facial Image |
SG10201902889V | 2019-03-29 | ||
PCT/JP2020/015256 WO2020204150A1 (en) | 2019-03-29 | 2020-03-27 | System and method for adaptively constructing a three-dimensional facial model based on two or more inputs of a two-dimensional facial image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022526468A JP2022526468A (ja) | 2022-05-24 |
JP7264308B2 true JP7264308B2 (ja) | 2023-04-25 |
Family
ID=72666778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022505735A Active JP7264308B2 (ja) | 2019-03-29 | 2020-03-27 | 二次元顔画像の2つ以上の入力に基づいて三次元顔モデルを適応的に構築するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220189110A1 (ja) |
EP (1) | EP3948774A4 (ja) |
JP (1) | JP7264308B2 (ja) |
CN (1) | CN113632137A (ja) |
SG (1) | SG10201902889VA (ja) |
WO (1) | WO2020204150A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428399B (zh) * | 2019-07-05 | 2022-06-14 | 百度在线网络技术(北京)有限公司 | 用于检测图像的方法、装置、设备和存储介质 |
CN117058329B (zh) * | 2023-10-11 | 2023-12-26 | 湖南马栏山视频先进技术研究院有限公司 | 一种人脸快速三维建模方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130235033A1 (en) | 2012-03-09 | 2013-09-12 | Korea Institute Of Science And Technology | Three dimensional montage generation system and method based on two dimensional single image |
WO2015098222A1 (ja) | 2013-12-26 | 2015-07-02 | 三菱電機株式会社 | 情報処理装置及び情報処理方法及びプログラム |
JP2016505280A (ja) | 2012-10-12 | 2016-02-25 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 患者の顔面データにアクセスするためのシステム |
US20160349045A1 (en) | 2014-12-19 | 2016-12-01 | Andrei Vladimirovich Klimov | A method of measurement of linear dimensions of three-dimensional objects |
JP2018523326A (ja) | 2015-09-16 | 2018-08-16 | グーグル エルエルシー | 全球状取込方法 |
JP2019032295A (ja) | 2017-08-09 | 2019-02-28 | ミツミ電機株式会社 | 測距カメラ |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7369101B2 (en) * | 2003-06-12 | 2008-05-06 | Siemens Medical Solutions Usa, Inc. | Calibrating real and virtual views |
US9804395B2 (en) * | 2014-01-29 | 2017-10-31 | Ricoh Co., Ltd | Range calibration of a binocular optical augmented reality system |
WO2019030957A1 (en) * | 2017-08-09 | 2019-02-14 | Mitsumi Electric Co., Ltd. | DISTANCE MEASUREMENT CAMERA |
US20200213576A1 (en) * | 2017-09-14 | 2020-07-02 | Oregon State University | Automated calibration target stands |
US10810707B2 (en) * | 2018-11-29 | 2020-10-20 | Adobe Inc. | Depth-of-field blur effects generating techniques |
-
2019
- 2019-03-29 SG SG10201902889VA patent/SG10201902889VA/en unknown
-
2020
- 2020-03-27 WO PCT/JP2020/015256 patent/WO2020204150A1/en unknown
- 2020-03-27 CN CN202080023720.3A patent/CN113632137A/zh active Pending
- 2020-03-27 JP JP2022505735A patent/JP7264308B2/ja active Active
- 2020-03-27 EP EP20784890.4A patent/EP3948774A4/en active Pending
- 2020-03-27 US US17/441,817 patent/US20220189110A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130235033A1 (en) | 2012-03-09 | 2013-09-12 | Korea Institute Of Science And Technology | Three dimensional montage generation system and method based on two dimensional single image |
JP2016505280A (ja) | 2012-10-12 | 2016-02-25 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 患者の顔面データにアクセスするためのシステム |
WO2015098222A1 (ja) | 2013-12-26 | 2015-07-02 | 三菱電機株式会社 | 情報処理装置及び情報処理方法及びプログラム |
US20160349045A1 (en) | 2014-12-19 | 2016-12-01 | Andrei Vladimirovich Klimov | A method of measurement of linear dimensions of three-dimensional objects |
JP2018523326A (ja) | 2015-09-16 | 2018-08-16 | グーグル エルエルシー | 全球状取込方法 |
JP2019032295A (ja) | 2017-08-09 | 2019-02-28 | ミツミ電機株式会社 | 測距カメラ |
Also Published As
Publication number | Publication date |
---|---|
CN113632137A (zh) | 2021-11-09 |
US20220189110A1 (en) | 2022-06-16 |
SG10201902889VA (en) | 2020-10-29 |
JP2022526468A (ja) | 2022-05-24 |
EP3948774A1 (en) | 2022-02-09 |
EP3948774A4 (en) | 2022-06-01 |
WO2020204150A1 (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762334B2 (en) | System and method for entity recognition | |
US9652663B2 (en) | Using facial data for device authentication or subject identification | |
US11023757B2 (en) | Method and apparatus with liveness verification | |
Raghavendra et al. | Presentation attack detection for face recognition using light field camera | |
WO2019218621A1 (zh) | 活体检测方法及装置、电子设备和存储介质 | |
WO2018040307A1 (zh) | 一种基于红外可见双目图像的活体检测方法及装置 | |
TWI766201B (zh) | 活體檢測方法、裝置以及儲存介質 | |
CN102985933B (zh) | 区分真人面部与平坦表面 | |
CN111194449A (zh) | 用于人脸活体检测的系统和方法 | |
WO2016084072A1 (en) | Anti-spoofing system and methods useful in conjunction therewith | |
CN109325933A (zh) | 一种翻拍图像识别方法及装置 | |
EP2842075A1 (en) | Three-dimensional face recognition for mobile devices | |
CN115457664A (zh) | 一种活体人脸检测方法及装置 | |
CN110956114A (zh) | 人脸活体检测方法、装置、检测系统及存储介质 | |
JP5015126B2 (ja) | 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体 | |
JP7264308B2 (ja) | 二次元顔画像の2つ以上の入力に基づいて三次元顔モデルを適応的に構築するためのシステムおよび方法 | |
US11244182B2 (en) | Spoof detection by estimating subject motion from captured image frames | |
CN112446254A (zh) | 人脸追踪的方法及相关装置 | |
CN112580615B (zh) | 一种活体的认证方法、认证装置及电子设备 | |
CN114202677A (zh) | 认证车辆内部中的乘员的方法和系统 | |
CN111126283A (zh) | 一种自动过滤模糊人脸的快速活体检测方法及系统 | |
US20230419737A1 (en) | Methods and systems for detecting fraud during biometric identity verification | |
WO2022172430A1 (ja) | 判定方法、判定プログラム、及び情報処理装置 | |
Fokkema | Using a challenge to improve face spoofing detection | |
KR20180108361A (ko) | 얼굴 인증 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7264308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |