JP2017506379A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2017506379A5 JP2017506379A5 JP2016539261A JP2016539261A JP2017506379A5 JP 2017506379 A5 JP2017506379 A5 JP 2017506379A5 JP 2016539261 A JP2016539261 A JP 2016539261A JP 2016539261 A JP2016539261 A JP 2016539261A JP 2017506379 A5 JP2017506379 A5 JP 2017506379A5
- Authority
- JP
- Japan
- Prior art keywords
- model
- face
- individual
- facial
- signatures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001815 facial Effects 0.000 claims description 69
- 230000000875 corresponding Effects 0.000 claims description 20
- 230000014509 gene expression Effects 0.000 claims description 17
- 238000005286 illumination Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 5
- 125000002057 carboxymethyl group Chemical group [H]OC(=O)C([H])([H])[*] 0.000 claims 1
- 239000000049 pigment Substances 0.000 claims 1
- 238000000605 extraction Methods 0.000 description 18
- 239000000203 mixture Substances 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 10
- 230000037406 food intake Effects 0.000 description 8
- 230000032683 aging Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 210000000887 Face Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004301 light adaptation Effects 0.000 description 3
- 238000001429 visible spectrum Methods 0.000 description 3
- DTBNBXWJWCWCIK-UHFFFAOYSA-N Phosphoenolpyruvic acid Natural products OC(=O)C(=C)OP(O)(O)=O DTBNBXWJWCWCIK-UHFFFAOYSA-N 0.000 description 2
- 230000001537 neural Effects 0.000 description 2
- 206010053648 Vascular occlusion Diseases 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000036548 skin texture Effects 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Description
本開示は、個人の顔の3次元(3D)モデルを、個人の異なる画像に基づいて決定するステップを含む方法を提供する。この方法はまた、顔の異なる姿勢に対応する3Dモデルから複数の2次元(2D)パッチを抽出するステップを含む。さらに、この方法は、複数の2Dパッチの異なる組合せを使用して顔の複数の特徴部分であるシグニチャを生成するステップを含み、複数のシグニチャは、異なる角度からの3Dモデルのそれぞれの見え方に対応する。
追加として、本開示は、プロセッサと、記憶システムと、プロセッサによる実行のためにコンピュータ可読ハードウェア記憶デバイス上に記憶されたプログラム命令とを含む顔面認識システムを提供する。プログラム命令は、個人の顔の3次元(3D)モデルを、個人の異なる画像に基づいて決定するプログラム命令を含む。プログラム命令はまた、顔の異なる姿勢に対応する3Dモデルから複数の2次元(2D)パッチを抽出するプログラム命令を含む。さらに、プログラム命令は、複数の2Dパッチの異なる組合せを使用して顔の複数の特徴部分であるシグニチャを生成するプログラム命令を含み、複数のシグニチャは、異なる角度からの3Dモデルのそれぞれの見え方に対応する。
本開示は、表現情報内の画像を認識するシステムおよび方法に関し、より詳細には、顔面認識に関する。本開示の態様によれば、このシステムおよび方法を使用して、個人の顔の属性ベース表現に基づいて画像内で個人を認識することができる。属性ベース表現は、画像から抽出された2Dパッチおよび個人の顔を意味的に特徴付ける属性(例えば、性別、年齢、民族性など)を使用して決定されるマルチビュー確率的弾性部分(「マルチビューPEP」)シグニチャを含む。マルチビューPEPシグニチャは、3Dモデルから抽出された2D顔パッチから構築される属性特有PEPモデルを使用して決定される。PEPモデルとは、局所的空間的外観特徴に基づくガウス混合モデルである。3Dモデルは、写真、ビデオ、および/またはスケッチ内の個人の画像から得られる顔の異なる姿勢から構築される。有利には、属性ベース表現は、視点、照射、加齢、および表情のために個人の顔で生じる幾何学上、構造上、かつ測光上の変動性を補償しながら、個人の顔を他の顔から一意的に判別するために使用することができる変動しない特徴を保護する。
本発明の態様によれば、属性ベース表現は、ベースとする顔の特徴(例えば、加齢、姿勢、照射、および表情)を正規化する。属性ベース表現および特徴は、相互依存することができ、属性ベース表現のパラメータは、正規化に使用されるモデルに強く影響し、逆も同様である。したがって、属性ベース表現は、部分表現に対応するパラメータの集合に対して繰返し最適化することによって決定される。
図1は、本開示の態様による方法およびシステムを実施する例示的な環境100である。環境100は、顔面認識システム105および画像ソース110を含む。本開示の態様によれば、顔面認識システム105は、個人の画像を含む様々な表現情報(例えば、静止画、動画、ビデオ、図面など)を摂取(例えば、取得)し、顔面認識のための個人の顔のモデル(例えば、PEPモデル)を生成するシステムである。このシステムは、モデルから情報を抽出し、抽出した情報を使用して、他の表現情報内で個人を認識する。画像ソース110は、ビデオ、写真、ピクチャなどの画像データを捕捉および/または記憶するデバイスまたはシステムである。実施形態では、画像ソース110は、表現情報データベースである。追加または別法として、画像ソース110は、1つまたは複数の画像センサ(例えば、カメラ)である。
記憶システム135は、情報およびプログラム命令を記憶するコンピュータ可読不揮発性ハードウェア記憶デバイスを備えることができる。例えば、記憶システム135は、1つまたは複数のフラッシュ・ドライブおよび/またはハード・ディスク・ドライブとすることができる。本開示の態様によれば、記憶デバイス135は、画像データベース136、領域知識データベース137、およびモデル・データベース138を含む。画像データベース136は、画像ソース110から取得した表現情報を記憶することができる。領域知識データベース137は、表現情報からの意味情報(例えば、性別、民族性、年齢、顔の形状、皮膚タイプ、顔面特徴など)を抽出し、顔をモデル化するために適用することができる所定のモデルおよび人体測定情報(例えば、異なる性別、民族性、および年齢に対応する形状、特徴、釣り合い、筋肉組織、および肌理)の集まりを含む。モデル・データベース138は、個人の3D顔モデルと、3D顔モデルから抽出された2Dパッチと、属性ベース表現を含む抽出された属性とを含む。
本開示の実施形態によれば、摂取モジュール151は、演算デバイス130に、画像ソース110からの表現情報を取得させ、表現情報内に含まれる画像を改善させる(例えば、解像度、ぼけ、およびコントラストを改善させる)。追加として、摂取モジュール151は、演算デバイスに、画像内の顔を検出および追跡させる(例えば、顔および目検出アルゴリズムを使用する)。
モデル化モジュール155は、演算デバイス130に、個人の顔の3Dモデルを作成または決定させる。本開示の態様によれば、3Dモデルは、3D姿勢(例えば、ヨーおよびピッチの量子化された空間)のすべての変動に対して生成される姿勢認識確率的弾性部分(PEP)ベースのモデルであり、変動する視野および照明条件下で広範囲の媒体モダリティに見られる顔の形状、肌理、およびダイナミクスを簡潔に符号化する。追加として、本開示の態様によれば、モデル化モジュール155は、3Dモデルを再照明し、3Dモデル内で捕捉された顔面表情を中性化し、3Dモデルによって表現される個人の年齢を修正し、3Dモデルに関連付けられた顔面の装飾および遮蔽を補償することができる。さらに、モデル化モジュールは、領域知識(例えば、領域知識データベース137内)を使用して、3Dモデルから欠けている情報(例えば、皮膚の肌理および遮蔽されたパッチ)を埋めることができる。
抽出モデル159は、コンピュータ・デバイスに、2Dパッチを使用するマルチビューPEP顔シグニチャと、様々な人口層(例えば、民族性、性別、年齢層など)を特徴付ける意味属性とを生成させる。本開示の態様によれば、抽出モデルは、複数の姿勢からの3Dモデルからの投影図から2Dパッチを決定する。これらの姿勢は、3Dモデルの直視(例えば、正面図からゼロのピッチおよびゼロのヨー)に対して、ピッチ(例えば、−10度〜+10度)およびヨー(例えば、−10度〜+10度)を有する複数の事前定義された視野角範囲内とすることができる。これらの投影図を組み合わせて、姿勢に対応する密に重複する2D顔パッチから、マルチビューPEPシグニチャを提供する。言い換えれば、それぞれのマルチビューPEP顔シグニチャ内に含まれるデータ量は、利用可能な表現情報の品質および/または数量とともに変化しない。したがって、マルチビューPEP顔シグニチャは、追加の画像からの情報を組み込むことによって、表現のサイズを増大させることなく、漸増的に改良することができる。
追加として、本開示の態様によれば、抽出モジュール159は、それぞれのマルチビューPEP顔シグニチャに対する不確実性メトリックを決定する。不確実性メトリックは、それぞれのマルチビューPEP顔シグニチャ内で2Dパッチの品質を特徴付ける。抽出モジュール159は、3Dモデルから導出することができる「顔のような」測度を使用して演算される不確実性メトリックを決定する。例えば、このメトリックは、特定のマルチビューPEP顔シグニチャに対応するパッチのうち、顔以外の部分を含む割合に対応することができる。
整合モジュール163は、演算デバイスに、モデル化モジュール155によって決定される個人の顔の属性ベース表現に基づいて、顔画像が個人の画像にマッチするかどうかを判定させる。本開示の態様によれば、マッチ(整合)は、マルチビュー確率的弾性部分(「マルチビューPEP」)シグニチャの各構成要素に対して決定される不確実性メトリックに基づいて行われる。追加として、本開示の態様によれば、整合モジュール163は、領域適応を使用して、撮像モダリティにわたってマルチビューPEP顔シグニチャをマッチさせる。実施形態では、モダリティは、とりわけRGBスペクトル、赤外、ハイパースペクトル、および図面(例えば、スケッチおよび漫画)を含む。
実施形態では、領域知識データベース137は、顔面計測、顔超解像ツール、属性特有の3D形状モデル、属性特有のマルチビューPEP、属性抽出ツール、特徴選択前例、顔面動作ユニット・コード化システム、および領域適応ツールという、顔面認識システム105によって参照することができる情報を含むことができる。顔面計測は、人口統計的顔面情報を特徴付け、加齢および表情による構造的変化にわたって変動しない顔面特徴を識別する人体計測測定値の統計(平均および標準偏差)である。3D顔モデルから推定される人体計測測定値は、整合モジュール155によってマッチスコアを判定するとき、ならびに分析モジュール153によって属性を決定するために、使用することができる。顔超解像ツールは、顔画像の画素レベルの細部を強調するための模範画像に構成要素ベースでマッチする。顔超解像ツールは、モデル化モジュール155による表現を構築するための改善された顔面特徴抽出を提供する。属性特有の3D形状モデルは、民族性、性別、および年齢に基づく3D顔形状の変動の異なる部分空間モデル化モードである。これらは、モデル化モジュール155による包括的3D顔形状と比較すると、3D形状に適合するより有益な前例を提供する。属性特有のマルチビューPEPは、共通の属性(例えば、性別、民族性、および年齢層)を有する個人の画像から密にサンプリングされたパッチのガウス混合モデル(GMM)である。これらは、整合モジュール163によるマッチに使用される個人化された統計モデルを提供する。属性抽出ツールは、分析モジュール153によって顔画像から属性を検出するための判別モデルである(深い学習および構造化された予測に基づく)。属性抽出ツールは、これらの属性の不確実性をモデル化して、顔の有意味の様相に沿ったマッチを可能にする。特徴選択前例は、例えば加齢、姿勢、および照射の変化による顔面特徴の不変性の違い、ならびに強調された部分ベース表現およびマッチを実現するための、深い学習に基づく特徴選択である。これらは、該当する最も大きい判別特徴を判定するための抽出モジュール159によるより速い特徴抽出を可能にする。顔面動作ユニット・コード化システムは、モデル化モジュール155によって表情による顔の変形をモデル化するための顔面筋肉組織のダイナミクスの普遍的に適用可能な中間表現である。顔面動作ユニット・コード化システムは、顔面筋肉組織の明示的かつ正確なモデル化を提供する。領域適応ツールは、加齢、姿勢、および照射の変化にわたって領域シフトをモデル化する学習済みツールである。
図2は、本開示の態様による顔面認識システム105の例示的なプロセスの機能上の流れ図を示す。顔面認識システム105は、前述のものと同じとすることができる摂取モジュール151、分析モジュール153、モデル化モジュール155、抽出モジュール159、および整合モジュール163を含む。本開示の態様によれば、摂取モジュール151は、画像ソース(例えば、画像ソース110)から受け取った表現情報を評価する。表現情報は、個人の写真、ビデオ、および/または図面(例えば、スケッチ)を含むことができる。実施形態では、表現情報を評価するステップは、画像を含む表現情報の縮尺、顔の被写域(例えば、画像内の姿勢に基づく画像内の顔の部分)、解像度、モダリティ(例えば、表現情報タイプ)、および/または品質を定義する情報を決定するステップを含む。顔の縮尺は、画像解像度を特徴付け、摂取モジュール151によって抽出される細部のレベルを決定する。受け取った画像および関連付けられた評価情報は、後の参照および処理のためにデータベース(例えば、画像データベース136)内に記憶することができる。
追加として、本開示の態様によれば、摂取モジュール151は、受け取った表現情報内に含まれる画像を改善する。実施形態では、画像を改善するステップは、ぼけを低減させるステップと、コントラストを改善するステップと、画像解像度を増大させるステップとを含む。例えば、撮像モジュール151は、大きい姿勢可変顔データセットからの模範構造(目、口、顔の輪郭など)に基づいて最適のぼけカーネルを推定することによって、ぼけを低減させることができる。ぼけカーネル推定は、ぼけた顔画像に最も近い模範を識別するステップ(例えば、領域知識データベース137内)と、ぼけた顔および最も近い模範の勾配を取り入れる正則化プロセスを実行するステップとを伴う。さらに、改善するステップは、統計的な学習および幾何形状を使用して照射条件をモデル化することによって画像を再照明するステップを含むことができる。追加として、摂取モジュール151は、ヒストグラム平坦化を実行することによって、画像のコントラストを増大させることができる。さらに、摂取モジュール151は、顔ハルシネーション技法を使用して、低解像度データから高解像画像を生成することができる。
本開示の態様によれば、モデル化モジュール155は、分析モジュール153によって決定された基準点および属性から3Dモデルを決定する。実施形態では、3Dモデルは、変動する視野および照明条件下で広範囲の媒体モダリティに見られる顔の形状、肌理、およびダイナミクスを符号化する。3Dモデルは、3D姿勢(ヨーおよびピッチの量子化された空間)のすべての変動に対して生成され、顔から抽出された人口統計学的属性(性別、民族性、および年齢層)にしたがって特殊化される、姿勢認識確率的弾性部分(PEP)ベースのモデルから構成される。
本開示の態様によれば、整合モジュール163は、入力画像(例えば、イベントにおける違反者の捕捉画像)と、抽出モジュール159によって抽出された2Dパッチとの間のマッチを判定する。入力画像とギャラリー表現情報との間の類似性は、それらの表現の異種シグニチャ間のマッチスコアとして演算される。実施形態では、整合モジュール163は、索引付けとマッチ体系との組合せを使用して、マルチビューPEPシグニチャをマッチさせ、それぞれの構成要素の不確実性を補償する。本開示の態様によれば、顔を記述する視覚属性は、顔同士の類似性を評価するための中間表現空間を提供する。低レベルの特徴は、場面内の測光および幾何学上の変化による摂動によって強く影響されるのに対して、記述可能な顔面属性の空間は、顔同士の対応関係を確立するためにより汎用化可能なメトリックを提供する。
図3は、本開示の態様による画像を摂取し、モデル化し、抽出し、かつマッチさせる、例示的なプロセス300の流れ図を示す。図3のステップは、図1の顔面認識システム(例えば、顔面認識システム105)を使用して実施することができ、例えば画像ソース(例えば、画像ソース110)から画像を取得し、取得した画像を処理して顔面認識を実行することができる。
ステップ305で、顔面認識システム(例えば、分析モジュール153による)は、画像から属性を判定する。本発明の態様によれば、属性は、対象の特徴を意味的に記述する。実施形態では、属性は、事前定義された情報およびモデル(例えば、領域知識データベース137)に基づいて決定される。
ステップ307で、顔面認識システム(例えば、モデル化モジュール155による)は、画像を使用して個人の顔の3Dモデルを決定する。例えば、モデル化モジュール155は、ステップ305で決定した属性に基づいてライブラリ(例えば、領域知識データベース137)から3Dメッシュを選択し、ステップ303で取得した画像のパッチをこのメッシュに取り込むことができる。実施形態では、顔面認識システムは、複数の画像からの情報を欠く3Dモデルの要素を識別することができる。3Dモデルが要素のいずれかを欠く場合、顔面認識ツールは、対象または標的個人の属性に類似した属性を有する個人からコンパイルした領域知識(例えば、領域知識データベース137)を使用して、識別された要素に対する情報を提供することができる。
ステップ311で、顔面認識システム(例えば、抽出モジュール159による)は、顔の異なる姿勢に対応するステップ309で正規化した3Dモデルから2Dパッチを抽出する。例えば、それぞれの異なる姿勢は、3Dモデルのそれぞれの視野角範囲に対応することができる。各視野角範囲に対して、顔面認識システムは、複数の可視パッチを決定し、これらのパッチの情報をそれぞれの視野角範囲に関連付けてデータベース(例えば、モデル・データベース138)内に記憶することができる。
ステップ313で、顔面認識システム(例えば、抽出モジュール159による)は、ステップ311で使用した異なる姿勢に対するマルチビューPEPシグニチャを決定する。実施形態では、マルチビューPEPシグニチャは、異なる角度からの3Dモデルのそれぞれの視野角範囲に対応する。実施形態では、顔面認識システムは、複数の追加の顔画像を使用して、マルチビューPEPシグニチャを繰返し改良する。しかし、本発明の態様によれば、それぞれのマルチビューPEPシグニチャは、追加の顔画像の数にかかわらず、固定のサイズを有する。また、本発明の態様によれば、顔面認識システムは、マルチビューPEPシグニチャのうち、顔の他の特徴に対して最も大きい判別特徴を有する顔の部分に対応する1つを決定する。実施形態では、最も大きい判別特徴を有する顔の部分の決定は、顔面特徴選択を実行するための訓練データを有する重畳ニューラル・ネットワークを使用して行われる。例えば、訓練データに基づいて、重畳ニューラル・ネットワークを使用して、各部分に対する不確実性メトリックを決定し、最も小さい不確実性メトリックを有する顔の対応する部分を選択することができる。
ステップ315で、顔面認識システム(例えば、抽出モジュール159による)は、ステップ305で決定した属性でマルチビューPEPシグニチャを索引付ける。実施形態では、特定のマルチビューPEPシグニチャに対して、属性を構成要素マルチビューPEPシグニチャとして処理されるベクトルに変換することによって、属性を索引付けることができる。例えば、索引付けは、最適化変換コード化方法を使用して実行することができる。
ステップ319で、顔面認識システム(例えば、整合モジュール163による)は、ステップ305で決定した属性、ステップ315で決定したマルチビューPEPシグニチャ、およびステップ317で決定した不確実性メトリックに基づいてモデル化された個人の顔に、入力画像がマッチするかどうかを判定する。実施形態では、判定は、入力画像の解像度に基づいて複数のシグニチャの解像度を修正するステップを含む。追加として、実施形態では、判定は、複数の撮像モダリティを使用してマッチを実行するステップを含む。例えば、マッチは、可視スペクトル画像、赤外画像、および/または図面に対応するPEPシグニチャを使用して実行することができる。
図4は、本開示の態様による顔面認識システム(例えば、顔面認識システム105)を使用して属性ベース表現を判定する流れ図を示す。顔面認識システムは、本明細書に前述したものと同じとすることができる。ステップ403で、顔面認識システムは、1つまたは複数のソース(例えば、画像ソース110)から、個人の1つまたは複数の画像405を受け取る。ステップ407で、顔面認識システム(例えば、モデル化モジュール155を使用する)は、個人の顔の3Dモデルを決定する。3Dモデルは、受け取った画像から抽出された個人の属性(例えば、性別、年齢、民族性など)に基づいて選択される標準的な形状に基づくことができる(例えば、分析モジュール153を使用する)。さらに、顔面認識システムは、本明細書に前述したように、モデルを再照明し、顔の表情を正規化し、かつ/または顔を加齢させることによって、3Dモジュール内の個人の顔面表現を修正することができる。
ステップ409で、顔面認識システム105(例えば、抽出モジュール159を使用する)は、3Dモデルの複数の異なる姿勢に対応する2Dパッチを抽出することによって、ステップ407で決定した3DモデルからマルチビューPEPシグニチャを決定する。それぞれの姿勢は、ピッチおよびヨー範囲の異なる組合せに基づく3Dモデルの視野角に対応することができる。例えば、第1の組合せは、−15度〜15度のピッチ範囲および10度〜40度のヨー範囲を含むことができ、第2の組合せは、−10度〜+10度のピッチ範囲および−90度〜−75度のヨー範囲を含むことができ、第3の組合せは、−10度〜+10度のピッチ範囲および−45度〜−15度のヨー範囲を含むことができ、第4の組合せは、−10度〜+10度のピッチ範囲および−15度〜+15度のヨー範囲を含むことができ、第5の組合せは、−10度〜+10度のピッチ範囲および+15度〜+45度のヨー範囲を含むことができ、第6の組合せは、−10度〜+10度のピッチ範囲および+75度〜+90度のヨー範囲を含むことができ、第7の組合せは、−40度〜−10度のピッチ範囲および−15度〜+15度のヨー範囲を含むことができる。本開示の態様によれば、マルチビューPEPシグニチャは、複数の画像モダリティ413(例えば、可視スペクトル、赤外、およびスケッチ/漫画)に対して決定される。
ステップ415で、顔面認識システム(例えば、抽出モデル159を使用する)は、ステップ409で使用した異なる姿勢(例えば、姿勢0〜8)に対して決定されたそれぞれのマルチビューPEPシグニチャにそれぞれ対応する複数のビン417(例えば、ビン0〜8)を取り込む。追加として、それぞれのビン417は、1つまたは複数の属性419によって索引付けられる。さらに、それぞれのビン417は、それぞれの不確実性メトリック421に関連付けられる。本開示の態様によれば、個人の画像と異なる姿勢に対して決定されたマルチビューPEPシグニチャとの間の類似性に基づいて、個人を識別することができる。
図5は、本開示の態様による顔面認識システム(例えば、顔面認識システム105)によって属性を決定する流れ図を示す。属性は、顔面認識システムの分析モジュール153によって決定することができ、顔面認識システムは、本明細書で先に論じたものと同じとすることができる。ステップ503で、分析モジュール153は、本明細書に前述したように、画像内の個人の顔を検出することができる。検出した顔は、姿勢に関連付けることができる。ステップ505で、分析モジュール153は、本明細書に前述したように、ステップ503で検出した顔の中の基準点を決定することができる。ステップ507で、分析モジュール153は、ステップ505で決定した基準点に基づいて、顔の中から2Dパッチを決定することができる。
本発明の態様によれば、姿勢認識PEPベースの2D表現は、3つの部分からなる表現であり、各部分は、可視スペクトルからの画像、近赤外スペクトルからの画像、および似顔絵(または漫画)に対するものである。各タイプの表現に対して、抽出モジュール159は不確実性メトリックを推定し、この不確実性メトリックは、生成確率に基づいてパッチから導出されたシグニチャに関連付けられる。そのような不確実性メトリックは、個人に対するシグニチャの正確なマッチを支援することができる。
Claims (16)
- 個人の顔の3次元(3D)モデルを、該個人の複数の異なる画像に基づいて決定するステップと、
前記顔の異なる姿勢に対応する該3Dモデルから複数の2次元(2D)パッチを抽出するステップと、
複数の前記2Dパッチの異なる組合せを使用して、異なる角度からの該3Dモデルのそれぞれの見え方に対応する前記顔の複数の特徴部分であるシグニチャを生成するステップと
を有する方法。 - プロセッサと、
記憶システムと、
該プロセッサによる実行のためにコンピュータ可読ハードウェア記憶デバイス上に記憶されたプログラム命令と、を備え、
該プログラム命令が、
個人の顔の3次元(3D)モデルを、該個人の複数の異なる画像に基づいて決定するプログラム命令と、
前記顔の異なる姿勢に対応する該3Dモデルから複数の2次元(2D)パッチを抽出するプログラム命令と、
複数の該2Dパッチの異なる組合せを使用して該顔の複数の特徴部分であるシグニチャを生成するプログラム命令とを含み、前記複数のシグニチャが、異なる角度からの前記3Dモデルのそれぞれの見え方に対応する
顔面認識システム。 - 前記3Dモデルを決定することが、
前記複数の画像において前記個人の顔の一部の情報を欠く前記3Dモデルの要素を識別することと、
前記個人の属性に類似した属性を有する個人からコンパイルした領域知識を使用して、該識別された要素に対する該情報を提供することを含む請求項2に記載のシステム。 - 前記3Dモデルの照明変動を正規化することによって、前記3Dモデルを修正することをさらに含む請求項2に記載のシステム。
- 前記個人の前記複数の異なる画像から得られる顔面表情を正規化することをさらに含む請求項2に記載のシステム。
- 前記個人の年齢に基づいて前記3Dモデルを修正することをさらに含む請求項2に記載のシステム。
- 前記個人の特徴を表す前記個人の複数の属性を決定することをさらに含む請求項2に記載のシステム。
- 前記複数の属性に基づいて前記複数のシグニチャを索引付けることをさらに含む請求項7に記載のシステム。
- 前記複数のシグニチャに対するそれぞれの不確実性値を決定することをさらに含み、
該不確実性値は、対応する前記シグニチャ内に含まれる複数の2Dパッチの品質に基づく値である請求項2に記載のシステム。 - 顔画像が前記複数のシグニチャの少なくとも1つにマッチするか否かを判定することをさらに含む請求項2に記載のシステム。
- 前記顔画像がマッチするか否かを判定する場合に、前記顔画像の解像度に基づいて前記複数のシグニチャの解像度を変更する請求項10に記載のシステム。
- 前記顔画像がマッチするか否かを判定する場合に、複数の撮像モダリティを使用してマッチするか否かを判定することを含む請求項10に記載のシステム。
- 前記顔の前記複数のシグニチャは、前記個人の複数の追加の顔画像を使用して繰返し改良されることを含む請求項2に記載のシステム。
- 前記顔の前記複数のシグニチャは、追加の顔画像の数にかかわらず、固定のデータ量のサイズを有する請求項2に記載のシステム。
- 前記複数のシグニチャに対し不確実性メトリックがそれぞれ対応するか否かを判定することと、
前記複数のシグニチャを前記対応する不確実性メトリックに関連付けることと
をさらに含む請求項2に記載のシステム。 - 前記複数のシグニチャのうち、最も大きい判別特徴を有する前記顔の部分に対応する前記シグニチャを決定することをさらに含む請求項2に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361918205P | 2013-12-19 | 2013-12-19 | |
US61/918,205 | 2013-12-19 | ||
US201461968015P | 2014-03-20 | 2014-03-20 | |
US61/968,015 | 2014-03-20 | ||
PCT/US2014/071548 WO2015095733A1 (en) | 2013-12-19 | 2014-12-19 | System and method for identifying faces in unconstrained media |
US14/576,818 | 2014-12-19 | ||
US14/576,818 US9449432B2 (en) | 2013-12-19 | 2014-12-19 | System and method for identifying faces in unconstrained media |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017506379A JP2017506379A (ja) | 2017-03-02 |
JP2017506379A5 true JP2017506379A5 (ja) | 2018-10-04 |
JP6411510B2 JP6411510B2 (ja) | 2018-10-24 |
Family
ID=53400364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016539261A Active JP6411510B2 (ja) | 2013-12-19 | 2014-12-19 | 無制約の媒体内の顔を識別するシステムおよび方法 |
Country Status (12)
Country | Link |
---|---|
US (2) | US9449432B2 (ja) |
EP (1) | EP3084682B1 (ja) |
JP (1) | JP6411510B2 (ja) |
KR (1) | KR102174595B1 (ja) |
CN (1) | CN106068514B (ja) |
AU (1) | AU2014368997B2 (ja) |
CA (1) | CA2934514C (ja) |
IL (1) | IL246209B (ja) |
MX (1) | MX358833B (ja) |
SG (1) | SG11201604981UA (ja) |
WO (1) | WO2015095733A1 (ja) |
ZA (1) | ZA201604115B (ja) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9633186B2 (en) * | 2012-04-23 | 2017-04-25 | Apple Inc. | Systems and methods for controlling output of content based on human recognition data detection |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20150235073A1 (en) * | 2014-01-28 | 2015-08-20 | The Trustees Of The Stevens Institute Of Technology | Flexible part-based representation for real-world face recognition apparatus and methods |
CN105005755B (zh) * | 2014-04-25 | 2019-03-29 | 北京邮电大学 | 三维人脸识别方法和系统 |
US9953425B2 (en) | 2014-07-30 | 2018-04-24 | Adobe Systems Incorporated | Learning image categorization using related attributes |
US9536293B2 (en) * | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
US20160086021A1 (en) * | 2014-09-24 | 2016-03-24 | 1A Smart Start, Inc. | Substance Testing Systems and Methods with Test Subject Identification Using Electronic Facial Recognition Techniques |
US10360498B2 (en) * | 2014-12-18 | 2019-07-23 | Facebook, Inc. | Unsupervised training sets for content classification |
US10402626B2 (en) * | 2015-03-02 | 2019-09-03 | M and M Technologies Limited | Recognition of human faces based on population verified reproducible measurements between facial anthropological landmarks on 2 dimensional or 3 dimensional human photographs |
JP7136558B2 (ja) | 2015-03-05 | 2022-09-13 | マジック リープ, インコーポレイテッド | 拡張現実のためのシステムおよび方法 |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
JP6754619B2 (ja) * | 2015-06-24 | 2020-09-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認識方法及び装置 |
KR20170000748A (ko) | 2015-06-24 | 2017-01-03 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
WO2017000300A1 (en) * | 2015-07-02 | 2017-01-05 | Xiaoou Tang | Methods and systems for social relation identification |
KR102477190B1 (ko) * | 2015-08-10 | 2022-12-13 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
AU2016365422A1 (en) * | 2015-12-04 | 2018-06-28 | Magic Leap, Inc. | Relocalization systems and methods |
US10424072B2 (en) | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
US11055762B2 (en) | 2016-03-21 | 2021-07-06 | The Procter & Gamble Company | Systems and methods for providing customized product recommendations |
US10049307B2 (en) * | 2016-04-04 | 2018-08-14 | International Business Machines Corporation | Visual object recognition |
CN106056562B (zh) * | 2016-05-19 | 2019-05-28 | 京东方科技集团股份有限公司 | 一种人脸图像处理方法、装置及电子设备 |
US10579860B2 (en) | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
US9940551B1 (en) * | 2016-06-17 | 2018-04-10 | Google Llc | Image generation using neural networks |
IL294134B2 (en) | 2016-08-02 | 2023-10-01 | Magic Leap Inc | Virtual and augmented reality systems at a fixed distance and methods |
US10223612B2 (en) | 2016-09-01 | 2019-03-05 | Microsoft Technology Licensing, Llc | Frame aggregation network for scalable video face recognition |
US20180075317A1 (en) * | 2016-09-09 | 2018-03-15 | Microsoft Technology Licensing, Llc | Person centric trait specific photo match ranking engine |
US10395099B2 (en) * | 2016-09-19 | 2019-08-27 | L'oreal | Systems, devices, and methods for three-dimensional analysis of eyebags |
US11132543B2 (en) * | 2016-12-28 | 2021-09-28 | Nvidia Corporation | Unconstrained appearance-based gaze estimation |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
JP7055815B2 (ja) | 2017-03-17 | 2022-04-18 | マジック リープ, インコーポレイテッド | 仮想コンテンツをワーピングすることを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 |
CN117873313A (zh) | 2017-03-17 | 2024-04-12 | 奇跃公司 | 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 |
WO2018170409A1 (en) | 2017-03-17 | 2018-09-20 | Magic Leap, Inc. | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same |
US10621771B2 (en) * | 2017-03-21 | 2020-04-14 | The Procter & Gamble Company | Methods for age appearance simulation |
US10614623B2 (en) * | 2017-03-21 | 2020-04-07 | Canfield Scientific, Incorporated | Methods and apparatuses for age appearance simulation |
KR102061408B1 (ko) | 2017-03-24 | 2019-12-31 | (주)제이엘케이인스펙션 | 가상 3차원 심층 신경망을 이용하는 영상 분석 장치 및 방법 |
CN107066966A (zh) * | 2017-04-17 | 2017-08-18 | 宜宾学院 | 一种基于关键点区域图像的人脸识别方法 |
JP6974697B2 (ja) * | 2017-05-26 | 2021-12-01 | 富士通株式会社 | 教師データ生成装置、教師データ生成方法、教師データ生成プログラム、及び物体検出システム |
KR102339915B1 (ko) | 2017-05-31 | 2021-12-17 | 더 프록터 앤드 갬블 캄파니 | 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법 |
US10818007B2 (en) | 2017-05-31 | 2020-10-27 | The Procter & Gamble Company | Systems and methods for determining apparent skin age |
CN107301657B (zh) * | 2017-06-12 | 2018-08-10 | 西安交通大学 | 一种考虑目标运动信息的视频目标跟踪方法 |
WO2019000466A1 (zh) * | 2017-06-30 | 2019-01-03 | 广东欧珀移动通信有限公司 | 人脸识别方法、装置、存储介质及电子设备 |
CN107491771A (zh) * | 2017-09-21 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 人脸检测方法和装置 |
US10579785B2 (en) * | 2017-09-29 | 2020-03-03 | General Electric Company | Automatic authentification for MES system using facial recognition |
CN107832541B (zh) * | 2017-11-20 | 2021-06-18 | 中铁第四勘察设计院集团有限公司 | 一种参数化二维图纸/三维模型智能转换方法及系统 |
CN107844661B (zh) * | 2017-11-20 | 2021-06-18 | 中铁第四勘察设计院集团有限公司 | 一种站台门参数化二维图纸/三维模型智能转换方法及系统 |
KR102183672B1 (ko) * | 2018-05-25 | 2020-11-27 | 광운대학교 산학협력단 | 합성곱 신경망에 대한 도메인 불변 사람 분류기를 위한 연관성 학습 시스템 및 방법 |
CN110717575B (zh) * | 2018-07-13 | 2022-07-26 | 奇景光电股份有限公司 | 无帧缓冲器的卷积神经网络系统与方法 |
CN116483200A (zh) | 2018-07-23 | 2023-07-25 | 奇跃公司 | 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法 |
US10943521B2 (en) | 2018-07-23 | 2021-03-09 | Magic Leap, Inc. | Intra-field sub code timing in field sequential displays |
KR102229056B1 (ko) * | 2018-08-09 | 2021-03-17 | 에스케이텔레콤 주식회사 | 표정 인식 모델 생성 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체 |
US11030798B2 (en) * | 2019-01-30 | 2021-06-08 | Perfect Mobile Corp. | Systems and methods for virtual application of makeup effects based on lighting conditions and surface properties of makeup effects |
CN110210456A (zh) * | 2019-06-19 | 2019-09-06 | 贵州理工学院 | 一种基于3d卷积神经网络的头部姿态估计方法 |
KR20210069467A (ko) | 2019-12-03 | 2021-06-11 | 삼성전자주식회사 | 뉴럴 네트워크의 학습 방법 및 장치와 뉴럴 네트워크를 이용한 인증 방법 및 장치 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN111369661B (zh) * | 2020-03-10 | 2023-03-17 | 四川大学 | 一种基于OpenCL的三维体数据可视化并行渲染方法 |
KR102441171B1 (ko) * | 2020-05-26 | 2022-09-08 | 한국전자통신연구원 | 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법 |
US11386609B2 (en) | 2020-10-27 | 2022-07-12 | Microsoft Technology Licensing, Llc | Head position extrapolation based on a 3D model and image data |
US11908233B2 (en) * | 2020-11-02 | 2024-02-20 | Pinscreen, Inc. | Normalization of facial images using deep neural networks |
US20220147735A1 (en) * | 2020-11-10 | 2022-05-12 | Nec Laboratories America, Inc. | Face-aware person re-identification system |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7103211B1 (en) * | 2001-09-04 | 2006-09-05 | Geometrix, Inc. | Method and apparatus for generating 3D face models from one camera |
AUPS170902A0 (en) * | 2002-04-12 | 2002-05-16 | Canon Kabushiki Kaisha | Face detection and tracking in a video sequence |
US8553949B2 (en) * | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US20050238210A1 (en) * | 2004-04-06 | 2005-10-27 | Sim Michael L | 2D/3D facial biometric mobile identification |
CA2579903C (en) * | 2004-09-17 | 2012-03-13 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
US8571272B2 (en) * | 2006-03-12 | 2013-10-29 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
WO2008130905A2 (en) * | 2007-04-17 | 2008-10-30 | Mikos, Ltd. | System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps |
CN100541520C (zh) * | 2007-09-25 | 2009-09-16 | 浙江大学 | 一种弱化表情形变影响的三维人脸识别方法 |
US8090160B2 (en) | 2007-10-12 | 2012-01-03 | The University Of Houston System | Automated method for human face modeling and relighting with application to face recognition |
US20100329568A1 (en) * | 2008-07-02 | 2010-12-30 | C-True Ltd. | Networked Face Recognition System |
IL196162A (en) * | 2008-12-24 | 2013-02-28 | Rafael Advanced Defense Sys | A system that uses 3D models to enable image comparison regardless of the source of the images |
JP2010165183A (ja) * | 2009-01-15 | 2010-07-29 | Panasonic Electric Works Co Ltd | 人体検出装置 |
CN102592136B (zh) * | 2011-12-21 | 2013-10-16 | 东南大学 | 基于几何图像中中频信息的三维人脸识别方法 |
US9314692B2 (en) * | 2012-09-21 | 2016-04-19 | Luxand, Inc. | Method of creating avatar from user submitted image |
-
2014
- 2014-12-19 US US14/576,818 patent/US9449432B2/en active Active
- 2014-12-19 AU AU2014368997A patent/AU2014368997B2/en active Active
- 2014-12-19 KR KR1020167019024A patent/KR102174595B1/ko active IP Right Grant
- 2014-12-19 EP EP14871564.2A patent/EP3084682B1/en active Active
- 2014-12-19 JP JP2016539261A patent/JP6411510B2/ja active Active
- 2014-12-19 SG SG11201604981UA patent/SG11201604981UA/en unknown
- 2014-12-19 MX MX2016007868A patent/MX358833B/es active IP Right Grant
- 2014-12-19 WO PCT/US2014/071548 patent/WO2015095733A1/en active Application Filing
- 2014-12-19 CN CN201480076022.4A patent/CN106068514B/zh active Active
- 2014-12-19 CA CA2934514A patent/CA2934514C/en active Active
-
2016
- 2016-06-14 IL IL246209A patent/IL246209B/en active IP Right Grant
- 2016-06-17 ZA ZA2016/04115A patent/ZA201604115B/en unknown
- 2016-07-08 US US15/205,134 patent/US20160314345A1/en not_active Abandoned
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017506379A5 (ja) | ||
JP6411510B2 (ja) | 無制約の媒体内の顔を識別するシステムおよび方法 | |
US11176406B2 (en) | Edge-based recognition, systems and methods | |
US9747493B2 (en) | Face pose rectification method and apparatus | |
Smeets et al. | Objective 3D face recognition: Evolution, approaches and challenges | |
US8811726B2 (en) | Method and system for localizing parts of an object in an image for computer vision applications | |
US20150086110A1 (en) | Person attribute estimation system and learning-use data generation device | |
Heseltine et al. | Three-dimensional face recognition using combinations of surface feature map subspace components | |
US20220148333A1 (en) | Method and system for estimating eye-related geometric parameters of a user | |
EP3198522A1 (en) | A face pose rectification method and apparatus | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
Li et al. | Robust RGB-D face recognition using Kinect sensor | |
WO2014112346A1 (ja) | 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム | |
Tian et al. | Free-view gait recognition | |
US9514354B2 (en) | Facial analysis by synthesis and biometric matching | |
Mei et al. | Learning to refine 3d human pose sequences | |
Funes Mora et al. | Eyediap database: Data description and gaze tracking evaluation benchmarks | |
NL2004878C2 (en) | System and method for detecting a person's direction of interest, such as a person's gaze direction. | |
Zamuner et al. | A pose-adaptive constrained local model for accurate head pose tracking | |
KR101436730B1 (ko) | 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법 | |
Silva et al. | Automatic luminous reflections detector using global threshold with increased luminosity contrast in images | |
Uke et al. | Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video | |
Freitas | 3D face recognition under unconstrained settings using low-cost sensors | |
Tao et al. | 3D Deformable Shape Reconstruction with Diffusion Maps. | |
Alqahtani | Three-dimensional facial tracker using a stereo vision system |