JP2006502478A - 三次元顔認識 - Google Patents

三次元顔認識 Download PDF

Info

Publication number
JP2006502478A
JP2006502478A JP2004541146A JP2004541146A JP2006502478A JP 2006502478 A JP2006502478 A JP 2006502478A JP 2004541146 A JP2004541146 A JP 2004541146A JP 2004541146 A JP2004541146 A JP 2004541146A JP 2006502478 A JP2006502478 A JP 2006502478A
Authority
JP
Japan
Prior art keywords
geodesic
face
distance
representation
geometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004541146A
Other languages
English (en)
Other versions
JP4445864B2 (ja
JP2006502478A5 (ja
Inventor
アレクサンダー ブロンステイン,
マイケル ブロンステイン,
ロン キメル,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technion Research and Development Foundation Ltd
Original Assignee
Technion Research and Development Foundation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technion Research and Development Foundation Ltd filed Critical Technion Research and Development Foundation Ltd
Publication of JP2006502478A publication Critical patent/JP2006502478A/ja
Publication of JP2006502478A5 publication Critical patent/JP2006502478A5/ja
Application granted granted Critical
Publication of JP4445864B2 publication Critical patent/JP4445864B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Holo Graphy (AREA)

Abstract

マッチング、特に顔マッチングのための幾何学体の三次元データを処理するための装置であって、前記幾何学体の三次元トポグラフィデータを得るための三次元スキャナ(12)と、所望により前記データを受け取り又は前記データを三角形分割多様体に形成するためのトライアンギュレータ(14)と、前記三角形分割多様体を前記多様体の点対間の一連の測地線距離に変換するための測地線変換器(20)と、前記一連の測地線距離の低次元ユークリッド表現を形成し、前記幾何学体の湾曲不変量表現を与えるように構成された多次元スケーラ(22)を含むもの。一変形例では、マッチングは前記表現から原理的固有値をとり特徴空間の座標としてプロットすることによって実行される。同じ顔の傾斜した又は異なった表現はマッチングを可能にする特徴空間のクラスタを形成する傾向を有する。装置は好ましくは三角形分割領域の高速マーチング法を使用して測地線距離を得る。

Description

本発明は、三次元顔認識のための方法および装置に関し、さらに詳しくは、両方とも顔の3D表現を得て、その表現をマッチング目的に使用する、そのような方法および装置に関するが、それらに限定されない。
顔認識は最近コンピュータビジョンの重要なタスクになってきており、広範囲のバイオメトリクスおよびセキュリティ分野で必要とされている。しかし、ほとんどの既存の顔認識システムは、頭部位置、照明等のような画像取得条件に影響され易いことが報告されており、したがって不正確であり、容易に欺くことができる。http://www.aclufl.org.pbfaceitresults051402.htmlから入手可能なフロリダ州米国自由人権協会(American Civil Liberties Union(ACLU)of Florida)の2002年5月14日広報を参照されたい。
一般的に、最近の顔認識手法は、大まかに二つのカテゴリ、すなわち画像情報のみを使用する2D手法(グレースケールまたはカラーのいずれかとすることができる)と、三次元情報をも組み込んだ3D手法とに分けることができる。
データ取得の点ではより単純である(公的な場所におけるビデオテープ化された群集からの顔認識のように実時間監視の適用が可能である)が、2D手法は照明条件および頭部の回転に影響されやすいことが難点である。画像は単一の観察角度における顔の表面から反射する光を表わすので、異なる照明条件は結果的に異なる画像を生じる。それは異なる被写体と認識される可能性が高い(図3参照)。古典的な2D顔認識アルゴリズムとして、タークおよびペントランドの固有顔アルゴリズムがある。完全な考察については、M.TurkおよびA.Pentland、「Face recognition using eigenfaces」、CVPR、1991年5月、pp586−591、ならびにM.TurkおよびA.Pentland「Face recognition system」、米国特許第5164992号、1990年11月17日を参照されたい。固有顔アルゴリズムは次のように働く。すなわち、ある統計的分布から現れた一組の顔を前提として、この分布の主成分は、顔間の差異を特徴付ける一組の特徴を形成する。「固有顔」とは、「全て」の顔の組の固有ベクトルである。固有顔手法は、照明条件および頭部の回転から生じる画像の顕著な相違を考慮することなく、2D分類の問題として顔認識を処理する。この理由から、固有顔は、実験室条件ではなく実生活に直面したときに、通常、中途半端な結果をもたらす。
3D手法は顔の幾何学情報を提供し、顔の幾何学情報は視点および照明条件とは無関係である。したがって、そのような情報は2D画像を補完する。しかし、3D情報は実際の顔の幾何学形状を運ぶだけでなく、深度情報をも含み、それは背景からの顔の容易な切分けを可能にする。
Gordonは、正面像および側面像を組み合わせることで、認識精度を改善できることを示した。G.Gordon、「Face recognition from frontal and profile views」、スイス国チューリッヒ、顔および身振り認識に関する国際ワークショップ会議録pp47−52、1995年6月を参照されたい。
BeumierおよびAcheroyは、3D取得のために構造化された照明を使用するシステムにおいて、被写体の識別のために不動顔プロファイルの幾何学情報を使用することの適切さを示している。C.BeumierおよびM.P.Acheroy、「Automatic Face Identification、Applications of Digital Image Processing XVIII」 SPIE、vol.2564、pp311−323、1995年7月を参照されたい。
上述の手法は、表面全体に一般化することができる。グローバル表面マッチングを使用するそのような一般化について記述した、C.BeumierおよびM.P.Acheroy、「Automatic Face Authentication from 3D Surface」、英国マシンビジョン会議BMVC 98、英国サウサンプトン大学、1998年9月14−17日、pp449−458、1998年を参照されたい。しかし、表面マッチングは顔の表情の影響を受けやすく、包括的な解決策とみなすことはできない。
したがって、三次元情報を使用するが、顔の表情、被写体の照明、または角度に影響され易いなどの上記の限界を持たない顔認識システムを持つ必要性が幅広く認識されており、かつそれを持つことは非常に好都合である。
発明の概要
本発明は、3D顔データの正準形表現を得、その正準表現を使用して他の顔と比較する。
本発明の一つの局面では、マッチングのための幾何学体の三次元データを処理するための装置であって、
前記幾何学体の三次元トポグラフィデータを、一実施形態では生データとして、別の実施形態では三角形分割多様体として受け取り、かつ前記データまたは前記三角形分割多様体を、データまたは多様体の点対間の一連の測地線距離に変換するための測地線変換器と、
その後前記測地線変換器に接続され、前記一連の測地線距離の低次元ユークリッド表現を形成するための多次元スケーラであって、前記低次元ユークリッド表現が他の幾何学形状とのマッチングに適した前記幾何学体の湾曲不変量表現を提供するように構成された多次元スケーラと、
を備えた装置を提供する。
該装置は、前記測地線変換器の前に配置され、前記三角形分割多様体をサブサンプリングし、かつサブサンプリングされた三角形分割多様体を前記測地線変換器に提供するように構成された、サブサンプラを備えることが好ましい。
前記多様体は複数の頂点を備え、前記サブサンプラは第一頂点を選択し、かつ、予め定められた個数の頂点が選択されるまで、すでに選択された頂点からの最大測地線距離を有する次の頂点を繰返し選択するように動作可能であることが好ましい。
前記サブサンプラは、三角形分割領域の高速マーチング法を使用して、前記繰返し選択のために頂点間の測地線距離を算出するように動作可能であることが好ましい。
好ましくは、前記幾何学体は顔であり、短期の幾何学的変化を受け易い前記顔の領域であるソフトな幾何学的領域と、前記短期の幾何学的変化を実質的に受け難い領域であるハードな幾何学的領域とを有し、前記装置は、前記サブサンプラの前に配置された、前記顔から前記ソフトな幾何学的領域を除去するためのプリプロセッサを備える。
前記プリプロセッサは、前記顔上の標定点の識別によって、前記ソフトな領域を識別するように動作可能であることが好ましい。
前記標定点は、鼻尖、一対の眼球中心、および口の中心のうちの少なくとも一つであることが好ましい。
前記プリプロセッサはさらに、前記顔を中心に合わせるように動作可能であることが好ましい。
前記プリプロセッサはさらに、前記顔をクロッピングするように動作可能であることが好ましい。
前記プリプロセッサは、測地線マスクの適用によって、前記ソフトな幾何学的な領域の除去を実行するように動作可能であることが好ましい。
前記測地線変換器は、三角形分割領域の高速マーチング法を使用して、前記測地線距離を算出するように動作可能であることが好ましい。
装置は、幾何学体のスキャンデータから前記三角形分割多様体を形成するためのトライアンギュレータ(triangulator)を備えることが好ましい。
装置はさらに、二次元より高次の空間内に前記三角形分割多様体を埋め込み、それによって追加情報と前記トポグラフィ情報を含めるように動作可能とすることができる。
前記追加情報は、テクスチャ情報、アルベド情報、グレースケール情報、および色情報から成る群のいずれか一つであることが好ましい。テクスチャ情報の場合、テクスチャは初期スキャンから抽出し、その後、低次元ユークリッド表現にマッピングすることができる。その後、トポグラフィおよびテクスチャ情報のための別個の係数を使用して、マッチングプロセスにおける別の表面までの重み付き距離に寄与することができる。
前記サブサンプラは、計算量と表現精度との間のトレードオフを定義することによって、使用者に最適なサブサンプリングレベルを選択させるための最適化装置を備えることが好ましい。
前記多次元スケーラは、前記ユークリッド表現が特徴空間における座標として使用するために抽出可能な予め定められた個数の固有値を備えるように構成されることが好ましい。
固有値の前記予め定められた個数は少なくとも3であり、前記特徴空間は、前記予め定められた個数に対応する次元数を持つことが好ましい。
本発明の第二の局面では、三次元データに基づく幾何学体間のマッチングのための装置において、
幾何学体の表現を、三角形分割多様体のサンプリング点間の測地線距離の組のユークリッド表現として受け取るための入力であって、前記ユークリッド表現が実質的に湾曲不変量表現であるように構成された入力と、
前記ユークリッド表現に基づいてそれぞれの幾何学体間の距離を算出するための距離算出器と、
算出された距離を二値化して、合致の有無を決定するためのスレショルダと、
を備えた装置を提供する。
好ましくは、前記距離算出器は、
予め定められた個数の固有値を前記ユークリッド表現から抽出するための固有値抽出器と、
前記予め定められた個数の固有値を、前記予め定められた個数の固有値の各々に対し一次元を有する特徴空間上の点としてプロットするためのプロッタと、
を備え、
前記スレショルダは前記特徴空間内のクラスタリングに感応するように構成され、それによって前記合致の有無を決定する。
前記予め定められた個数は3であることが好ましい。
前記ユークリッド表現は、前記三角形分割多様体のサブサンプリング点間の測地線距離に基づくことが好ましい。
好ましくは、前記幾何学体は顔であり、短期の幾何学的変化を受け易い前記顔の領域であるソフトな幾何学的領域と、短期の幾何学的変化を実質的に受け難い領域であるハードな幾何学的領域とを有し、前記ユークリッド表現は実質的に前記ハードな幾何学的領域に限定される。
前記距離算出器は、ハウスドルフ計量を使用するように構成することが好ましい。
本発明の第三の局面では、マッチングのための幾何学体の三次元データを得、かつ前記データを使用して異なる体間のマッチングを実行するための装置であって、
前記体の三次元トポグラフィデータを得るための三次元スキャナと、
前記幾何学体の前記三次元トポグラフィデータを受け取り、かつ前記データを三角形分割多様体に形成するためのトライアンギュレータと、
その後前記トライアンギュレータに接続され、前記三角形分割多様体を前記多様体の点対間の一連の測地線距離に変換するための測地線変換器と、
その後前記測地線変換器に接続され、前記一連の測地線距離の低次元ユークリッド表現を形成するための多次元スケーラであって、前記低次元ユークリッド表現が前記幾何学体の湾曲不変量表現を提供するように構成された多次元スケーラと、
その後前記多次元スケーラに接続され、前記ユークリッド表現に基づき幾何学体間の距離を算出するための距離算出器と、
その後前記距離算出器に接続され、算出された距離を二値化して合致の有無を決定するためのスレショルダと、
を備えた装置を提供する。
好ましくは、前記距離算出器は、
予め定められた個数の固有値を前記ユークリッド表現から抽出するための固有値抽出器と、
前記予め定められた個数の固有値を、前記予め定められた個数の固有値の各々に対し一次元を有する特徴空間上の点としてプロットするためのプロッタと、
を備え、
前記スレショルダは前記特徴空間内のクラスタリングに感応するように構成され、それによって前記合致の有無を決定する。
前記予め定められた個数は3であることが好ましい。
代替的に、前記予め定められた個数は4以上である。
該装置は、前記トライアンギュレータと前記測地線変換器との間に配置され、前記三角形分割多様体をサブサンプリングし、かつサブサンプリングされた三角形分割多様体を前記測地線変換器に提供するように構成された、サブサンプラを備えることが好ましい。
前記サブサンプラは、前記サブサンプリングされた三角形分割多様体に含めるために、前記三角形分割多様体から点を選択する際に、測地線距離を使用するように動作可能であることが好ましい。
前記サブサンプラは、初期点を取り、次いで、すでに選択された点からの測地線距離に関して最も遠く離れた点を取ることによって点を繰返し選択するように構成されることが好ましい。
好ましくは、前記幾何学体は、ソフトな幾何学的領域とハードな幾何学的領域とを有する顔であり、前記装置は、前記トライアンギュレータと前記サブサンプラとの間に配置された、前記ソフトな幾何学的領域を前記顔から除去するためのプリプロセッサを備える。
好ましくは、前記幾何学体は、ソフトな幾何学的領域とハードな幾何学的領域とを有する顔であり、前記装置は、前記トライアンギュレータと前記測地線変換器との間に配置された、前記ソフトな幾何学的領域を前記顔から除去するためのプリプロセッサを備える。
前記プリプロセッサは、前記顔上の標定点の識別によって前記ソフトな領域を識別するように動作可能であることが好ましい。
前記標定点は鼻尖であることが好ましい。
前記プリプロセッサはさらに、前記顔を中心に合わせるように動作可能であることが好ましい。
前記プリプロセッサはさらに、前記顔をクロッピングするように動作可能であることが好ましい。
前記プリプロセッサは、測地線マスクの適用によって前記ソフトな領域の除去を実行するように動作可能であることが好ましい。
前記測地線変換器は、三角形分割領域の高速マーチング法を使用して、前記測地線距離を算出するように動作可能であることが好ましい。
前記サブサンプラは、計算量と表現精度との間のトレードオフを定義することによって、使用者に最適なサブサンプリングレベルを選択させるための最適化装置を備えることが好ましい。
前記距離算出器は、ハウスドルフ計量を使用するように構成することが好ましい。
本発明の第四の局面では、三次元トポグラフィデータをその後の分類のために画像前処理する方法であって、
前記三次元トポグラフィデータを三次元三角形分割多様体として提供するステップと、
前記多様体の選択された頂点までの測地線距離のマトリックスを生成するステップと、
多次元スケーリングを使用して前記マトリックスを低次元ユークリッド空間の正準表現に変換し、それによってその後の分類に適した表現を提供するステップと、
を含む方法を提供する。
該方法は、予め定められた個数の頂点が選択されるまで、すでに選択された頂点からの最大測地線距離を有する次の頂点を繰返し選択することを含む手順によって、測地線距離の前記マトリックスを生成するために前記頂点を選択するステップをさらに含むことができる。
該方法は、三角形分割領域の高速マーチング法を使用して、前記手順のために測地線距離を決定するステップをさらに含むことができる。
前記三次元トポグラフィデータは顔の表現であり、前記顔の短期変化を受け易い部分を除外するために前記顔をクロッピングするステップをさらに含み、それによって前記その後の分類を前記短期変化に対し実質的に不変にすることが好ましい。
本発明の第五の局面では、三次元体の画像を分類する方法であって、
前記三次元体の表現を、前記体の表面から取った選択標本点間の測地線距離から導出される正準形表現として得るステップと、
前記各表現から特徴空間の座標を導出するステップと、
前記特徴空間のクラスタリングに従って前記体を分類するステップと、
を含む方法を提供する。
好ましくは、前記座標の導出は、それぞれの正準形表現から最初のm個の固有値を導出するステップと、前記m個の固有値を使用して前記座標を提供するステップとを含み、ここでmは予め定められた数であり、前記特徴空間はm次元を持つように構成される。
mは少なくとも3であることが好ましい。
特に定義しない限り、本書で使用する技術および科学用語は全て、本発明が属する技術の通常の熟練者が一般的に理解するのと同じ意味を持つ。本書で提示する材料、方法、および実施例は単なる例証であって、限定を意図するものではない。
本発明の方法およびシステムの実現は、手動的に、自動的に、もしくはそれらの組合せとして、選択されたタスクまたはステップを実行または完遂することを含む。さらに、本発明の方法およびシステムの好適な実施形態の実際の装備および装具によると、一つまたはそれ以上のステップをハードウェアによって、または任意のファームウェアの任意のオペレーティングシステム上のソフトウェアによって、またはそれらの組合せによって、実現することができる。例えば、ハードウェアとしては、本発明の選択されたステップはチップまたは回路として実現することができる。ソフトウェアとしては、本発明の選択されたステップは、任意の適切なオペレーティングシステムを使用してコンピュータによって実行される複数のソフトウェア命令として実現することができる。いずれの場合も、本発明の方法およびシステムの選択されたステップは、複数の命令を実行するためのコンピューティングプラットフォームのような、データプロセッサによって実行されるものとして記述することができる。
図面の簡略な記述
本発明をここで、単なる例として、添付の図面を参照しながら説明する。今、特に図面を詳細に検討するに当たり、図示する細部は例示であって、単に本発明の好適な実施形態の実証的な説明を目的とするものであり、本発明の原理および概念的態様のもっとも有用かつ理解し易い説明であると信じられるものを提供するために提示することを強調しておく。これに関連して、発明の基本的理解に必要である以上に詳細に本発明の構造上の細部を示そうとはせず、図面に即して行なう説明は、本発明の幾つかの形態をいかに実際に具現することができるかを当業者に明らかにするものである。
図1は本発明の第一の好適な実施形態に従って、体の3Dトポグラフィデータを収集し、かつ該データを処理して効果的なマッチングのための正準形表現にするための装置の好適な実施形態を示す簡易ブロック図である。
図2は本発明の第二の好適な実施形態に従って、正準形表現の3Dトポグラフィデータを受け取り、かつマッチングまたは分類を実行するための装置の簡易図である。
図3は各々異なる照明条件下で撮影した単一の顔の一連の2D表現である。顔は人間の観察者にとっては明らかに同一であるが、従来の画像解析技術を使用して合致させることは非常に難しい。
図4aは深度符号化照明を使用した3Dデータ収集の第一段階を示す簡易模式図である。
図4bは深度符号化照明を使用した3Dデータ収集の第二段階を示す簡易模式図である。
図5はビデオカメラおよび移動レーザプロジェクタを備えた3Dスキャナ装置を示す写真である。
図6はフォトメトリックステレオ取得方式を示す簡易模式図である。
図7は顔の3Dスキャンによって収集したデータ点を使用した三角形分割多様体表現である。
図8はサブサンプリング後の図7の多様体を示す簡易図である。
図9は図1のサブサンプラをより詳細に示す簡易ブロック図である。
図10は図1の測地線変換器をより詳細に示す簡易ブロック図である。
図11は本発明の好適な実施形態の動作を示す簡易フローチャートである。
図12は図11のサブサンプリング段階をより詳細に示す簡易フローチャートである。
図13は第一実験の被写体として使用された六つの顔のデータベースである。
図14は図1の顔の一つ、表情の変化をシミュレートするための顔のバリエーション、および主要特徴の変化を示すためのさらなるバリエーションを示す。
図15は三次元特徴空間にプロットされた第一実験の結果を示すグラフである。表情の変化のみによって異なる顔は特徴空間でクラスタを形成する一方、主要特徴の変化によって異なる顔は離れる。
図16は所定の顔の九種類の照明、およびフォトメトリックステレオを使用しポアソン方程式を解くことによる多様体へのそれらの再構成を示す。
図17は第二実験用の異なる被写体の九つの顔の照明から最小二乗を使用して各々再構成された一組10個の顔である。
図18は実験II用の各々異なるポーズの単一の被写体の一組の画像である。
図19は三次元特徴空間にプロットされた第二実験の結果を示すグラフである。同一被写体の異なるポーズはクラスタを形成する。
図20は二つの顔表面の位置合わせプロセスを示す模式図である。
図21は三次元特徴空間にプロットされた位置合わせ無しの第三実験の結果を示すグラフである。認識できるクラスタは現れない。
図22は三次元特徴空間にプロットされた最適位置合わせ実行後の第三実験の結果を示すグラフである。クラスタリングが存在するが不明瞭である。
図23は第四実験用の被写体として使用された、さらなるデータベースからの一組三個の顔である。
図24は第四実験用でもある図23の顔の一組三個のポーズである。
図25は前処理の一部としてマスクを適用する前の顔のテクスチャマップを示す。
図26は測地線マスクを適用した後の図25のテクスチャマップを示す。
図27は前処理の一部としてマスクを適用する前の顔の深度マップを示す。
図28は測地線マスクを適用した後の図27の深度マップを示す。
図29は3Dトポグラフィ画像データから直接得た三角形分割多様体を示す。
図30はサブサンプリング後の図29の多様体を示す。
図31は正準形に変換された図29の多様体を示す。
図32は3Dデータ取得のための観察および照明角度を示す簡易図である。
図33は表面勾配と局所的ストライプ方向との間の関係を示す簡易図である。
図34は三次元多様体へのデカルト座標のマッピングを示す簡易図である。
図35は測地線距離を測定するための起点となる追加頂点の選択のプロセスを示す簡易図である。
図36は様々な角度から照明された一連の同じ顔を示す。
図37Aは本発明の好適な実施形態に従って、顔の3D表現を処理し、かつ中間ステップとして3D表面を形成することなく処理結果のマッチングを実行するための装置を示す簡易ブロック図である。
図37Bは図37Aの装置の使用に関わる一連の動作を示す簡易フローチャートである。
図38は収集した顔情報の処理における三つの段階、最初のデータ収集、3D表現の抽出、および顔の不変領域に集中するための前処理を示す簡易図である。
図39は図37Aの実施形態を使用して得た結果を示す。
図40および41はテクスチャ情報を図1の実施形態のマッチングプロセスに組み込むための手順を示す単一のフローチャートである。
図42は図40および41の実施形態に係るテクスチャデータの分離、およびその後の正準形式へのマッピングを示す簡易図である。
好適な実施形態の説明
本発明の実施形態は、3D幾何学またはトポグラフィ情報に基づく顔認識手法を示す。3D顔表面が与えられると、表面をサンプリングし、その上の点間の測地線距離を(高速マーチング法を使用して)算出し、かつ多次元スケーリング(MDS)を適用することによって、幾何学湾曲不変量正準形を得ることができる。MDSは低次元ユークリッド空間における表面の表現、つまり湾曲不変量正準形を可能にし、該正準形は、分類一般、および特にマッチングに使用することのできる表現である。
一実施形態では、顔表面の三角形分割多様体が形成され、そこから測地線距離が算出される。別の実施形態では、測地線距離は、多様体を形成することなく、表面勾配データから得られる。
3D幾何学を使用する顔認識は、単独で、または従来の2D撮像を補強するために、使用することができる。一実施形態では、2Dまたはテクスチャデータを3D範囲または幾何学データと一緒に処理し、次いでテクスチャおよび範囲データの両方を使用して、重み付きユークリッド距離に基づいてマッチングを実行する。3D幾何学は視点および照明条件に依存しないので、正確な顔分類を達成することができる。
本発明の少なくとも一実施形態を詳細に説明する前に、本発明はその適用を、以下の説明に記載しあるいは図面に示す構造の詳細および構成要素の配列に限定されないことを理解すべきである。本発明は他の実施形態が可能であり、あるいは異なる方法で実施または実行することができる。また、ここで使用する語法および用語は説明を目的としたものであって、限定とみなすべきではないことを理解されたい。
今、図面を参照すると、図1は、本発明の好適な実施形態に係る、マッチングを含む分類のために幾何学体の三次元データを得るための装置を示す簡易図である。好適な実施形態は、特に顔のマッチングに関するが、本発明の原理は、三次元構造を有するどんな幾何学体にも適用可能であることを、当業者は認識されるであろう。
装置10は、体の三次元トポグラフィデータを得るための三次元スキャナ12を備える。以下で幾つかの型のスキャナについて記述すると共に、そこからのデータを処理する方法について、幾つかの事例で簡単に説明する。
三次元スキャナ12からのデータはトライアンギュレータ14に渡される。トライアンギュレータは、体のトポロジ的特徴を表わす三次元三角形分割多様体を生成するために、スキャナから受け取ったデータに三角形分割を実行することができる。多様体を導出するトライアンギュレータの厳密な動作は、3D情報が収集される方法によって変化する。特定の場合、多様体は、介在する処理段階を必要とすることなく、収集されたデータから直接形成することができる。多様体は体の三次元トポロジの全てを表現することが好ましく、したがって、理論的には、マッチングを可能にするのに充分である。しかし、実際には、三角形分割多様体を使用する直接比較は、下述する実施例3に実証するように、多数の不利点を有する。それらは大量の計算を必要とする。マッチングは異なる顔を確実に区別しない。さらに、同じ顔が異なる表情を持つ場合、マッチングは一般的に失敗し、かつ同じ顔が異なる角度を向いた場合でさえも、マッチングは信頼できない。
したがって、本発明の実施形態は、四つの追加処理段階を含むことが好ましく、その第一段階はプリプロセッサ16である。プリプロセッサ16は、多様体の周りの方位を決定するために、基準点を取る。基準点は、顔の多様体から自動的に見つけることが比較的容易であることを前提として、顔上の任意の点とすることできる。好適な実施形態で使用するのに適した基準点は、鼻尖である。他の可能な基準点として、眼球の中心、および口の中心がある。ひとたびプリプロセッサが鼻尖を見出すと、顔の残りに対するそれ自体の位置を確認することができ、次いで、以下でソフト領域と呼ぶ、その幾何学が表情に特に影響され易い顔の部分は無視することができる。以下でハード領域と呼ぶ、表情等の変化により変化しない顔の部分を保持し、あるいは強調することさえできる。以下でさらに詳述するように、ソフト領域の定義は一定していない。一部の方法の場合、および一部の状況においては、除外されるソフト領域は、口を中心とする顔の下部領域の全てを含むことができる。他の場合には、それほど極端ではない除外を考慮することができる。以下でさらに詳述する、一つの実施形態では、ソフト領域は、測地線マスクを使用して除去される。マスクは、顔のテクスチャマップおよび顔の深度マップに別個に適用することができる。
プリプロセッサの後にサブサンプラ18が続く。サブサンプラ18は前処理された多様体を受け取り、定義の精細度は低下するがマッチングしようとする顔の基本的幾何学を依然として定義する多様体を生成するために、点を除去する。好適な実施形態では、使用者は、正確なマッチングつまり多数の点と、より高速の処理つまり少数の点との間で妥協を図り、点の個数を選択することができる。以下でさらに詳述するように、サブサンプラの好適な実施形態は、多様体の初期点または初期頂点から開始され、次いでそこから最大距離を有する点または頂点を追加するボロノイ(Voronoi)サブサンプリング技術を使用する。該手順は、選択された個数の点が含まれるまで繰返し反復される。該技術は測地線距離を使用することが好ましく、それは下述するように三角形分割領域(FMM−TD)の高速マーチング法を使用して得ることができる。
サブサンプラの後に測地線変換器20が続く。測地線変換器20は、サブサンプリングされた多様体の点のリストを受け取り、各点対のベクトルを算出する。ベクトルは測地線距離として表わされ、可能な限り効果的に測地線距離を得るために、三角形分割領域の高速マーチングアルゴリズムが再び使用される。
測地線変換器の後に多次元スケーラ22が続き、これは、測地線変換器20によって算出された、以下で距離マトリックスと呼ぶ測地線距離のマトリックスを受け取り、多次元スケーリングを使用して一連の測地線距離の低次元ユークリッド表現を形成する。多次元スケーリングについては以下で詳述する。低次元ユークリッド表現は、以下で多次元スケーリングの考察時に説明するように、幾何学体の湾曲不変量表現を提供する。そのような湾曲不変量表現の使用は、マッチングプロセスが例えば異なる角度の頭のスキャンによって欺かれないことを確実にする。
多次元スケーラの出力24は、以下で正準形表現と呼ぶ表面点間のユークリッド距離による3D顔の表現である。
今、図2を参照すると、それは、上述したように正準形の出力を使用して、二つの顔のマッチングを行うためのマッチング装置の簡易図である。整合器30は装置10の延長とすることができ、あるいは別個のユニットとして供給することができる。整合器30は距離算出器32を備え、それは二つの正準形表現34および36を入力として受け取り、それらの間の距離を算出する。距離の算出は、マッチング対象の顔の各々の正準形の比較に適した任意の方法を使用することができる。単純な手法は、例えばハウスドルフ計量を使用して、二組の点間の距離を測定することである。しかし、ハウスドルフ計量に基づく方法は計算量が膨大である。
本発明の実施形態で使用される代替的手法は、MDS手順から得られた最初のm個の固有値を取り、低次元特徴空間の座標を提供する。支配的な固有値は正準形を完全には記述しないが、同様の顔が同様の固有値を有する(したがって特徴空間でクラスタを形成する)ことは合理的である。幾何学体間で距離が算出され、あるいは下述するように、特徴空間のグラフにプロットされ、その後距離算出器に接続されるスレショルダ38が、算出された距離を二値化して、特徴空間におけるクラスタの有無を決定する。クラスタは合致を示すものである。本書で詳述する実施形態では、最初の三個の固有値が取られ、三次元特徴空間にプロットされる。
今、一連の3つの二次元画像を示す図3を参照する。三つの画像が同一の顔のものであることは、どんな人間の観察者にも明らかであろう。しかし、従来の自動マッチング技術は一般的に、3つの画像の間に非常に大きい距離を見出し、したがってそれらを合致させることができない。したがって、二次元顔マッチングは、照明方向のような単純な変量によってを導入されるエラーを引き起こす傾向がある。実際、目のような反射率の高い顔の領域は、照明の非常に微小な変化に対してかなり変化することがある。
今、図1に戻ると、上に示したように、装置10は三次元スキャナ12を備えることが好ましい。本発明の実施形態で記述する顔認識は、顔を三次元表面として処理する。したがって、まず第一に、認識したい被写体の顔表面を得ることが必要である。以下は、顔をスキャンして三次元データを得ることのできる、現在利用可能な測距技術の短い概観である。
レーザレンジカメラ(Zcam)
今、図4aおよび4bを参照すると、それは、深度符号化照明を使用するレーザレンジカメラの動作の連続的段階を示す簡易図である。現在、最速かつ最も正確であるが、同時に最も高価なレンジカメラが、深度符号化照明に基づくものである。
深度符号化照明は、視野に沿って移動する光の壁40の生成に基づく。光が場面内の物体42に衝突すると、それはカメラ44に向かって反射する。光の有限速度のため、反射は物体深度のインプリントを伝え、それは適切な電子工学を使用して解読することができる。照明は一般的にIRレーザダイオードを使用して生成される。
この型の3D取得装置は、2001年3月15日のWO特許01/18563号から公知であり、その内容をここに参照によって組み込む。そのような技術は約30fpsのフレームレートの実時間データ取得を可能にする。深度分解能は、時間的にフレームを平均化することによって大幅に改善することができる。一般的な価格は2千〜5万米ドルの範囲である。
3Dスキャナ
より遅く、より安価なバージョンの3Dスキャナは、1998年1月のインド国ボンベイのコンピュータビジョン国際会議の議事録におけるJ.−Y.BouguetおよびP.Peronaの「3D photography on your desk」に基づく。該スキャナは、机の上に一直線状の陰を形成するランプと鉛筆に基づくものであり、ZigelmanおよびKimmelは、影の代わりに細いレーザビームを使用している。G.ZigelmanおよびR.Kimmel、「Fast 3D laser scanner」、イスラエル工科大学Technion、コンピュータサイエンス学部、Tech.Rep.CIS−2000−07、2000年を参照されたい。典型的な装置を図5に示し、それはビデオカメラ46および移動式レーザプロジェクタ48を備える。図5の装置を使用して、物体に照射したときのレーザcの変形を解析することによって、深度の再構成が実行される。関連手法は、見出し「構造光」の下で下述する。
そのようなスキャナは、50〜200米ドルの間の価格を有する安価な材料から組み立てることができる。そのような装置で達成可能な顔に対する典型的なスキャン速度は15〜30秒の範囲内であり、低いスキャン速度は、該手法を実験室および類似の制御された条件に限定する。
構造光
構造光の概念は、既知のパターン(例えば平行なストライプ)を物体に投射し、その後パターンの変形から深度情報を捕捉することに関係する。さらなる詳細は、C.Rocchini、P.Cignoni、C.Montani、P.Pingi、およびR.Scopigno「A low cost 3D scanner based on structured light」、EUROGRAPHICS 2001、A.ChalmersおよびT.−M.Rhyne(ゲスト編集者)、第20巻(2001年)第3号を参照されたい。その内容をここに参照によって組み込む。
典型的なデータ取得セットアップは、CCDカメラおよびプロジェクタを含み、現在の価格は1千〜5千米ドルの領域にあり、比較的安価である。そのようなデータ取得装置は3D顔認識のためにBeumierおよびAcheroyによって使用された。C.BeumierおよびM.P.Acheroy、「Automatic Face Identification,Applications of Digital Image Processing XVIII」、SPIE、第2564巻、pp311−323、1995年7月、ならびにC.BeumierおよびM.P.Acheroy、「Automatic Face Authentication from 3D Surface」、英国マシンビジョン会議BMVC 98、英国サウサンプトン大学、1998年9月14−17日、pp449−458、1998年を参照されたい。その内容をここに参照によって組み込む。
構造光方法の不利点は、制御された照明条件が必要であり、再び該方法を多くの実生活用途に適用不能にしていることである。
フォトメトリックステレオ
専用のハードウェアを必要としない顔表面取得の代替的方法は、フォトメトリックステレオからの表面再構成である。フォトメトリックステレオは、異なる照明条件で同一被写体の幾つかの画像を取得し、ランベルト反射モデルを想定することによって画像から3D幾何学を抽出することを必要とする。表面は、それがつや消し表面またはマットな表面として挙動する場合、ランベルト反射を呈すると言われる。つまり、どの方向からの入射光に対しても、反射は完全に拡散する。つまり、光は全ての方向に均等な強さで反射する。任意の表面に対し、明るさは照明源と面法線との間の角度のみに依存する。
今、図6を参照すると、これはZ軸上の所定の位置52から見て、関数として表わされた顔の表面50を示す簡易図である。物体は、lに沿って向けられた平行光線源54によって照明される。
以下では、ランベルト反射を想定し、したがって観察された写真は次式によって与えられる。
(x,y)=ρ(x,y)〈n(x,y),l〉 (1)
ここで、ρ(x,y)は物体のアルベドまたは反射率であり、n(x、y)は物体表面の法線であり、次のように表わされる。
マトリックス−ベクトル表記を使用すると、方程式(1)は次のように書き直すことができる。
I(x,y)=Lν (3)
ここで、
であり、かつ
である。
勾配∇zを持つと、次の関数の最小化によって表面50を再構成することができる。
フォトメトリックステレオ手法による表面再構成における明らかな問題の一つは、実際の顔にランベルトモデルからの逸脱から発生することである。顔認識のアプリケーションでは、一部の顔の特徴(例えば目、髪、ひげ等)が強い非ランバート性を有する。
再構成表面における非正則性を低減するために、表面の非平滑性のペナルティ項を例えば最小二乗解に加えて、全変動を出すことができる。
幾何学顔認識方式
本発明の実施形態の顔認識方式は、三次元顔表面の幾何学的特徴に基づく。幾何学的特徴は3Dスキャンから直接得るか、図7に示した種類の三角形分割多様体に点または頂点として組み込むことができ、あるいは頂点をフォトメトリックステレオから導出し、次いで三角形分割多様体を形成するように配列することができる。
認識の前に、センタリングおよびクロッピングのような予備処理を多様体に実行することが好ましい。センタリングおよびクロッピング動作は、単純なパターンマッチングによって実行することができ、それは人間の顔の最も認識可能な特徴として、目または鼻尖60を使用することができる。顔自体に属する表面に処理を限定し、こうして眼鏡および類似物のような前景項目を除外するために、顔の輪郭を抽出することもできる。そのようなタスクは、上述したプリプロセッサ16によって実行することが好ましい。
前処理は、眼窩の上部輪郭、人の頬骨の周囲の領域、および口の側部をはじめ、あまり変化しない顔の部分、いわゆるハード領域を重視することが好ましい。他方、容易に変化することができる部分(例えば髪)、つまりソフト領域は、認識プロセスから除外することが好ましい。下述するように、表情によって著しく変化する領域もソフト領域に含まれ、除外することができ、特定の実施形態では、処理は顔の上方部分だけに限定することができる。
プリプロセッサによる処理の後、多様体は、典型的には依然として、効果的な処理のためには多すぎる点、および基礎を成す顔の幾何学を伝えるために実際に必要であるより多くの点を含む。したがって、図8のサブサンプリングされた多様体を形成するために、サブサンプラ18を使用してサブサンプリングが実行される。
今、図9を参照すると、それはサブサンプラ18をより詳細に示す簡易ブロック図である。サブサンプラはイニシャライザ70およびボロノイサンプラ72を備え、入力として前処理された全多様体および所望の個数の点、または精度と計算効率との間のトレードオフを定義する他の利用し易い方法を取る。
サブサンプリング手順では、n個の均等に分布する頂点の部分集合が、顔の輪郭内の三角形分割表面から選択される。サブサンプリングは、反復ボロノイサンプリング手順を使用して実行され、反復のたびに、すでに選択された頂点から最大の測地線距離を持つ頂点が選択される。該手順は、イニシャライザによって選択された一定の頂点によって初期化され、必要な測地線距離はFMM−TDを使用して算出することが好ましく、その数学については下で詳述する。ボロノイサンプリングに関するさらなる情報については、CISM Journal ACSGC第45巻第1号1991年春pp65−80「Problems with handling spatial data,the Voronoi approach」、Christopher M.Goldを参照されたい。FMM−TDについては以下で詳述する。
今、図10を参照すると、それは図1の測地線変換器20をより詳細に示す簡易ブロック図である。測地線変換器20では、サブサンプラ18から点80の集合を受け取る。次いで、n個の選択された頂点の各々から相互に他の頂点にFMM−TDを適用することによって、n×nの測地線距離の距離マトリックスが形成される。低計算量のFMM−TDを確実にする原理の一つは、ボロノイサンプリングからすでに算出された距離を、測地距離マトリックスの計算のようなその後の計算で再使用することができることである。
n×nの距離マトリックスを使用して、多次元スケーリング(MDS)を適用して、相違度マトリックス、低次元ユークリッド空間で顔の正準表現を提供する類似性または非類似性のマップが生成される。等長変換は測地線距離に影響を及ぼさないので、そのような変換を受ける顔は、元の顔のそれと同じ正準形を生じることが予想される。発明者らが実行した研究は、実際わずかに非等長の変換で、元の正準形からの小さいが些細な逸脱が生じることを示している。MDSについては以下で詳述する。
顔のマッチング演算の最後の段階は、マッチングまたは分類、つまり正準形の比較から構成される。簡単な手法は、例えばハウスドルフ計量を使用して二組の点間の距離を測定するものである。しかし、ハウスドルフ計量に基づく方法は計算量が膨大であり、したがって避けるべきである。
本発明の実施形態で使用する代替的手法は、MDS手順から得た最初のm個の固有値を取り、低次元特徴空間の座標を提供するものである。支配的固有値は正準形を完全には記述しないが、同様の顔が同様の固有値を有する(したがって特徴空間でクラスタを形成する)ことは合理的である。下述する実験は、記載する比較が充分に正確であり、かつ計算量が低いことを示している。本発明の実施形態では、最初の三個の固有値を取り、三次元特徴空間にプロットする。
三角形分割多様体における高速マーチング
本発明の実施形態に係る顔認識は、サブサンプリングのため、およびサブサンプリングされた点から距離マトリックスを形成するための両方に、顔表面上の点間の測地線距離を使用する。最初に、顔の表面を表わす三角形分割多様体上の点対間の距離を算出し、次いでそこから測地線距離を得るために効率的な数値法が必要である。
高速マーチング法(FMM)として知られる方法が、J.A.Sethian、「A fast marching level set method for monotonically advancing fronts」、Proc.Nat.Acad.Sci.、93、4、1996年によって開示されており、その内容をこれにより参照によって組み込む。高速マーチング法は、R.KimmelおよびJ.A.Sethian、「Computing geodesic paths on manifolds」に開示されているように、三角形分割領域(FMM−TD)に実質的に延長された。その内容を同様に参照によって組み込む。FMM−TDは、測地線距離の一次近似を算出するための効率的な数値法である。
図7のような多様体上で一組のソース点{s}が与えられると、これらの点から多様体上の他の点までの距離マップT(x,y)が、アイコナール方程式
‖▽T‖=1;T(s)=0 (9)
の解として得られる。
FMM−TDは、O(NlogN)の複雑度の距離マップの算出を可能にする。ここでNは、多様体上の点の個数である。
フォトメトリックステレオから顔の幾何学が得られる場合、追加的効率を次のように達成することができる。上記の方程式(8)から表面自体を算出することは実際には必要ない。勾配∇zを見出し、その値を使用して、FMMによって使用される計量を構成すれば充分である。
多次元スケーリング
多次元スケーリング(MDS)は、一組の物体間の測定された類似性または非類似性を低次元ユークリッド空間における近接度のパターンの表現にマッピングする方法であり、この文脈で、IEEE Trans.on Visualization and Computer Graphics,2001に受理されたG.Zigelman、R.KimmelおよびN.Kiryatiの「Texture mapping using surface flattening via multi−dimensional scaling」ならびにIEEE Trans.on PAMI,2001に受理されたR.Grossmann、N.KiryatiおよびR.Kimmelの「Computational surface flattening:A voxel−based approach」を参照されたい。これらの文書の両方の内容をこれにより参照によって本書に組み込む。
本発明の実施形態では、FMM−TD方法を使用して顔表面上の点間の測地線距離を測定することによって、近接度値が得られる。A.EladおよびR.Kimmelの「Bending invariant representation for surfaces」、Proc.of CVPR’01、ハワイ2001年12月は、多様体上の測地線距離にMDSを適用することで湾曲不変量正準形が生成されることを示した。その内容をこれにより参照によって本書に組み込む。
MDS問題を解くための多種多様なアルゴリズムが存在する。それらの各々において、計算量とアルゴリズムの精度との間のトレードオフが行われる。本発明の実施形態は、Youngらによって紹介された古典的スケーリングアルゴリズムを利用するが、他の方法の適用可能性を当業者は理解されるであろう。
(10)にあるような要素の二乗距離マトリックスDが与えられると、内積マトリックスを構成することができる。
ここで、l=[1,…,l]であり、X=[x,…,xである。Bは、最大でもk個の正の固有値を持つ正の半定値マトリックスであり、それは次のように表わすことができる。
B=UΛU (12)
したがって、座標マトリックスXは、Bの二乗根マトリックスを算出することによって得られる。
統計の観点から、上述した手法は、基底ベクトルに投射される所定のn個のベクトルの分散を最大にする直交基底を見出す主成分分析(PCA)と同等であることが注目される。
経験的観察は、平滑表面で測定される測地線距離に含まれるほとんどの幾何学構造の表現のためには、三次元で通常充分であることを示している。
今、図11を参照すると、それは、本発明の実施形態のプロセスの流れを示し、かつ上述した様々な手順および機能をいかに協働させることができるかを示す、簡易フローチャートである。第一段階S1で、マッチングを希望する物体から3Dデータが照合される。照合は、上述したスキャン方法のいずれか、または体の3Dトポロジ情報を収集するいずれかの他の適切な方法を使用することができる。任意選択的段階S2では、アルベドまたは反射力情報を収集することができる。アルベド情報を組み込む可能性の一つは、二次元顔多様体を4Dまたは6D空間に埋め込み、組合せ計量を使用して多様体上の距離を測定することによるものであり、したがって4D埋込みにおける第四座標および6D埋込みにおける第四〜第六座標は、アルベド情報のグレーレベルまたはRGBチャネルをそれぞれ表わす。
収集されたデータは次いで、図6のような三角形分割多様体上の一連の点として、段階S3に提示される。多様体は3Dデータから直接構成することができ、あるいは使用されるデータ収集方法によっては、補助計算を必要とすることがある。
段階S4は前処理段階である。前処理段階は、ソフトつまり顔の幾何学のしばしば変化する領域を除去し、ハード領域つまり一定に維持される領域を残す。前処理はまた、画像のクロッピングおよび類似の操作をも含むことができる。前処理は、顔上の基準点を位置付け、次いで一般的顔形を使用して、無視すべきソフト領域の位置を決定することを含むことが好ましい。
段階S5はサブサンプリング段階である。前処理された多様体は、幾何学情報を保持するためにもっとも重要な点だけを選択することによって、簡約される。上述の通り、ボロノイサンプリングのような効率的な技術を使用することができる。段階S5を図12により詳細に示す。ここで段階S5.1は前処理された多様体の入力を含む。選択段階S5.2は、精度と計算量との間のトレードオフにおいて、サブサンプリングのための点の所望の個数を使用者に設定させる。最後に、段階5.3は、最大限のトポロジ情報を有する最小限の個数の点を探すボロノイサンプリングを含む。上述の通り、初期点が取られ、次いで、所望の個数の点に達するまで、そこから最も遠い点が追加される。測地線距離は、最も遠い点を決定するために使用され、FMM−TDを使用して測地線距離を探すことができる。
段階S6では、サブサンプリングされた各頂点と相互に他の点との間の測地線距離の距離マトリックスが算出される。上で説明したように、測地線距離を計算する効率的な方法として、FMM−TDを使用することが好ましい。
段階S7では、MDSを使用して距離マトリックスの相違度が測定され、よって低次元ユークリッド表現で測地線距離が表わされる。最後に、段階S8で、低次元ユークリッド表現で表わされた顔を、様々な距離計算技術によって他の顔と比較することができる。上述の通り、好適な方法は、MDS手順から得た最初のm個の固有値を使用して、低次元特徴空間の座標を提供する。本発明の実施形態では、最初の三個の固有値が取られ、三次元特徴空間にプロットされる。支配的固有値は正準形を完全には記述しないが、それでもなお同様の顔は特徴空間で認識可能なクラスタを形成し、したがってマッチングが可能である。
実験結果
該手法を評価し、本発明の実施形態を検証するために、四つの実験を実行した。次の三つのデータベースを使用した。
I.上述しかつ図13に示す種類の簡単な3Dスキャナによって得られた3D顔表面のデータベース。該データベースは、一つの人工顔(被写体b)および五人の人間の顔を含む六つの被写体a...fから構成される。
脚注 該データベースはGil Zigelmanの好意によりhttp://www.cs.tehnion.ac.il/〜zgilから入手可能である。
II.Yale顔データベースB。該データベースは、制御された照明条件で撮影された、白人およびアジア型の両方の10の被写体の高解像度グレースケール画像から構成される。各被写体が幾つかのポーズで示された(わずかな頭の回転)。フォトメトリックステレオを使用して、3D表面再構成が実行された。
脚注 該データベースは、http://cvc.yale.edu/projects/yalefacesB/yalefacesB.htmlから入手可能である。
III.3Dスキャナを使用して得られた、異なる顔の表情を持つ人間の被写体の高解像度の顔表面およびテクスチャのデータベース。
擬似的な顔の表情のスキャン表面
第一の実験はデータベースI(図13)に対して実行され、擬似的な顔の表情に対するアルゴリズムの感度を試験するように意図したものであった。
今、図14を参照すると、それは図13の顔の一つをいかに変形して顔の表情をシミュレートしたかを示している。顔aは図13の未変形顔dであり、顔bおよびcはそれに適用された異なる変形である。bでは、被写体dの額、頬、および顎が変形され、同一被写体の異なる顔の表情をシミュレートしている。cでは、特徴、つまり鼻が異なる顔のものと置換されている。後者は大きな特徴の変化に対するアルゴリズムの感度を試験するために適用された。これらの変形は等長的ではなかったことが重要である。
表面をサイズ60×95にスケーリングし、ボロノイサンプリングを使用して400点にダウンサンプリングした。その後、FMM−TDを使用して各点からの測位線距離を算出し、多次元スケーリングを距離マトリックスに適用した。
今、図15を参照すると、それはマッチングのための三次元特徴空間のグラフである。さらに詳しくは、図15のグラフは、MDSによって得られた最初の三個の固有値をプロットすることができる特徴空間表現を示す。特徴空間内の各点は、図13および14の顔つまりA(点)、B(丸)、C(×)、D(五角形)、E(三角形)、およびF(六角形)の一つに対応する。顔の変形は純粋に等長ではないが、近接して配置された点を生成し、クラスタを形成することが分かる。他方、特徴の置換によって得られた顔は被写体Dの元の顔から遠い。
フォトメトリックステレオ
第二の実験はデータベースIIに対して実行された。実験の目的は、3D表面取得のためにフォトメトリックステレオを使用する実現可能性、および頭部の回転に対するアルゴリズムの感度を決定することであった。
フォトメトリックステレオからの忠実な表面再構成は、多数の異なる照明方向を必要とするようである。理由は主として、ランバートモデルからの事実上の逸脱(特に額、髪、および目で目立つ)、および画像取得中のわずかな被験者の変位(例えばまばたき)のためである。今、図16を参照すると、それは同一の顔の九種類の照明、および九つの画像全部から表面再構成によって行われた最小二乗表面の再構成を示す。9という数は、効率的な個数であることが経験的に明らかになった数にすぎない。より少数の画像は結果的に、より低い精度の表面を生じ、したがってより低い精度の認識となる。
今、図17を参照すると、それは、それぞれの顔の9つの画像からフォトメトリックステレオから各々再構成された、一連の10個の顔表面a〜jを示す。フォトメトリックステレオから3D幾何学を再構成したときに、比較的高いノイズが避けられないようであることが注目される。
今、図18を参照すると、それはいくつかのポーズで撮影された図17の被写体Gを示す。一部の被写体に対して、小さい頭部の回転に対する認識感度を試験するために、いくつかのポーズを撮影した。アルゴリズムは湾曲不変量であるので、回転の影響(等長変換)は無視できるほど小さく、見出された可能な全ての変位は主として不正確な表面認識のためであるように思われた。
実験では、顔を目および唇の配置によって手動的に中心に合わせ、顔の輪郭によって囲まれる領域で処理を実行した。表面はサイズ56×80にスケーリングし、ボロノイサンプリングを使用して400点でサンプリングした。その後、高速マーチングを使用して各点からの距離を算出し、多次元スケーリングを距離マトリックスに適用した。
今、図19を参照すると、それは、一部が図18によって例示するように幾つかのポーズを取った、図17の顔の特異値分解によって得た最初の三個の固有値を使用して特徴空間表現を示す簡易グラフである。A(点)、B(丸)、C(バツ印)、D(プラス)、E(星印)、F(五角形)、G(六角形)、H(菱形)、I(方形)およびJ(三角形)。被写体A、B、D、EおよびGの異なるポーズはクラスタを形成する。第二の実験の結果から、異なるポーズが結果的に比較的狭いクラスタを生じることは明らかである。
表面マッチング
第三の実験はデータベースIに対して実行され、その目的は幾何学的手法を単純な表面比較と比較することである。
実験は、表面類似性に対し簡単なLノルムに基づく測度(L−norm−based measure)を使用する。今、図20を参照すると、それは二対の表面90および92を示す。各表面は、二つの眼球中心および口の中心によって画定される平面94、94’を有する。表面90の対は位置合わせされず、表面92の対は90の場合と同じであるが、位置合わせの後である。実験では、表面を次の二通りの方法で位置合わせした。
(a)図20に示すように、二つの表面の二つの眼球中心および口の中心によって形成される平面94、94’を一致させた。
(b)二つの面上の点間のユークリッド距離の和が最小になるように、ユークリッド変換
を求めることによる。ここでRは回転マトリックスであり、bは並進ベクトルである。つまり、表面の非類似性(この場合、二つの位置合わせされた表面間のギャップの近似体積)を最小にする回転を選択する。最適位置合わせは、勾配降下アルゴリズムと数値勾配計算によって求めた。
最適位置合わせを得た後、二つの表面間のギャップの体積を積分することによって、表面の近接性を計算する。そのような手法は、C.BeumierおよびM.P.Acheroy、「Automatic Face Authentication from 3D Surface」、英国マシンビジョン会議BMVC 98、英国サウサンプトン大学、1998年9月14−17日、pp449−458、1998年に開示されたグローバル表面マッチングの概念に従うものである。その内容をこれにより参照によって組み込む。
今、図21および22を参照すると、それらはこの第三の実験の結果を要約した二つのグラフである。位置合わせ後の多様体の単純な比較は顔の表情に影響され易く、一方で同一被写体の異なる表情を、他方で異なる被験者を区別できないことが明らかである。
さらに詳しくは、図21および22は、測地線距離とは異なり、表面間のL距離では、たとえ最適表面位置合わせを使用しても顔が区別されないことを示す。同一被写体の異なる表情および頭のポーズは、認識可能なクラスタを形成しない。理由は、単純な比較が顔表面の幾何学を考慮に入れていないことである。
図21は、図17の顔の組および異なる表情を示すそれらの顔の幾つか、つまりA(点)、B(丸)、C(バツ印)、D(プラス)、E(星印)、F(五角形)、G(六角形)、H(菱形)、I(方形)およびJ(三角形)について、三点による位置合わせのためのLに基づくアルゴリズムの結果を示す。クラスタは認識不能である。
図22は、同じ組の顔、つまりA(点)、B(丸)、C(バツ印)、D(プラス)、E(星印)、F(五角形)、G(六角形)、H(菱形)、I(方形)およびJ(三角形)について、最適位置合わせと共にL2に基づくアルゴリズムを使用している。再び、明確なクラスタは現れない。
リアルな表情の人間被写体
第四の実験は、今回、データベースIIIを使用して実行された。主な目標は、リアルな顔の表情の被写体に対し現場条件でアルゴリズムを試験することであった。データベースIIIから三人の被写体を図23に示し、図24は三つの異なる表情の単一の被写体を示す。
今、図25〜28を参照すると、それらは関連のある特徴だけを抽出する顔の前処理を示す。関連のある特徴だけを抽出するために、顔を処理した。テクスチャおよび深度マップの両方に測地線マスクを適用した。マスクは、鼻尖を中心に測地線的な意味で一定半径の玉を算出することによって得た。実験では、鼻の位置を手動的に見出した。図25および26はテクスチャマップであり、図27および28は深度マップである。図25および27はマスクの適用前のテクスチャおよび深度マップをそれぞれ示し、図26および28はマスクの適用後のテクスチャおよび深度マップをそれぞれ示す。
今、図29、30、および31を参照すると、それらは本発明の実施形態のメッシュ処理段階をそれぞれ示す。図29は高解像度の三角形分割多様体を示し、図30は多様体のダウンサンプリングバージョンを示し、図31は表面を正準形で示す。
最小平均二乗距離測度は、元の多様体より正準形表面に適用する方が、ずっと良い結果を生み出した。現在、最小平均二乗距離測度は、計算量上膨大である。計算がずっと単純な中心積率に基づく正準形の比較は、最小二乗距離よりわずかに低い精度結果を生じるが、それでも顔の類似性について優れた尺度を提供する。
正準形を作成するために、古典的なスケーリングアルゴリズムを使用した。本発明は、最小二乗MDSアルゴリズムの使用に、古典的スケーリングアルゴリズムを超える顕著な改善を見出さなかった。250〜500のサブサンプルが、計算量を比較的低く維持しながら、十分な精度をもたらすことが分かった。
本発明の実施形態は、頬を膨らましたり口を開けるなどの顔野表面の強い非等長的な変形を考慮したときに、結果が悪かったことが注目される。前処理段階でハード領域であって実質的に剛性の特徴を含む顔の上方部分に関心領域を制限すると、上記の条件下でかなり良い結果が得られる。
計量テンソルを使用する測地線距離計算
上述の実施形態は、幾何学的不変特徴に基づく3D顔認識手法を記載している。実施形態の重要な概念は、顔の表情から結果的に生じるような等長変形に対し不変の顔表面の表現である。幾何学的不変量の構成における段階の一つは、三角形分割された表面の測地線距離の測定であり、それは上述したように、三角形分割領域に対する高速マーチング(FMTD)によって実行される。下述する実施形態は、測地線距離計算に表面の計量テンソルだけを使用する。顔表面取得のためのフォトメトリックステレオと組み合わせたときに、該実施形態は、3D表面を再構成することなく、顔の湾曲不変量表現を構成することが可能である。
本実施形態では、三角形分割領域に対する上述した高速マーチング(FMTD)のバリエーションを提供する。前段落で示したように、バリエーションは、表面の計量テンソルだけを前提として測地線距離を計算することができ、顔表面の実際の3D再構成を必要とせず、したがって方法が簡素化され、エラーの傾向が低下する。該実施形態は、顔表面取得のためのフォトメトリックステレオ法と組み合わせることが好ましい。フォトメトリックステレオは安価かつ単純な手法であり、表面を再構成することなく計量テンソルを生成する。その結果、単純かつ高速の顔認識方法が得られる。
表面取得
本実施形態の顔認識アルゴリズムは、顔を三次元表面として処理する。したがって最初に、認識しようとする被写体の顔表面を得る必要がある。本実施形態は表面勾配を再生する方法に重点を置く。以下で示すように、実際の表面再構成は必要なく、計算の手間が省け、数値誤差が低減する。
A.フォトメトリックステレオ
今、図32を参照すると、それは顔100、視点102、および照明源104を示す。フォトメトリックステレオ技術は、異なる照明状態の同一被写体の幾つかの画像を得ること、およびランバート反射モデルを想定することによって3D幾何学を抽出することから構成される。関数として表現される顔表面を、z軸に沿って所定の視点102から観察すると想定する。物体は、104からlに沿って向けられた平行光線源によって照明される。
以下で、方程式の番号付けは再び1から始まる。
本発明者らはランバート反射モデルを想定する。つまり、観察画像は次式によって与えられる。
(x,y)=ρ(x,y)n(x,y)・l (1)
ここで、ρ(x,y)は物体のアルベドであり、n(x、y)は物体表面の法線であり、次のように表わされる。
マトリックス−ベクトル表記を使用すると、(1)は次のように書き直すことができる。
I(x,y)=Lν (3)
ここで、
であり、かつ
である。
B.構造光
M.Proesmans、L.Van Gool、およびA.Oosterlinck、「One−Shot Active Shape Acquisition」、パターン認識国際会議会報、ウィーン、C巻、336−340頁、1996年、ならびにS.WinkelbachおよびF.M.Wahl、「Shape from 2D Edge Gradients」、Pattern Recognition Lecture Notes in Computer Sciences 2191、377−384頁、Springer、2001年は、物体上に投射した二つのストライプパターンから表面法線(勾配)の再構成を可能にする、2Dエッジ勾配再構成技術に基づく形状を提唱した。これらの文書の内容全体をこれにより参照によってそっくりそのまま組み込む。該再構成技術は、撮像2D画像の投射ストライプの方向が、3Dの表面の局所的な方向付けに依存することに基づく。Sobel、Canny等のような古典的エッジ検出オペレータを使用して、ストライプエッジの方向を求めることができる。
今、図33を参照すると、それは表面勾配と局所的ストライプ方向との間の関係を示す簡易図である。像平面内の画素は観察ベクトルsを画定する。ストライプ方向は、像平面内および観察平面内の両方にあるストライプ方向ベクトルν′を決定する。投射ストライプνの実際の接線ベクトルは、観察平面の法線ν=s′×c、およびストライプ投射平面の法線pに直交する。平行な投射を想定すると、次式
ν=c×p (8)
が得られる。
第二ストライプ照明を第一画像に対して回転して、場面の第二画像を取得すると、第二接線ベクトルνを算出することができる。次に表面法線は、次式
n=ν×ν (9)
に従って算出される。
S.WinkelbachおよびF.M.Wahl、「Shape from Single Stripe Pattern Illumination」、L.Van Gool(編集):「Pattern Recognition(DAGM2002)」、Lecture Notes in Computer Science2449、240−247頁、Springer、2002年において、著者らは単一の照明パターンを使用して、局所的方向からの表面法線および投射ストライプの幅を推定している。その内容をこれにより参照によって組み込む。
湾曲不変量表現
ある形状類似性基準を最大にする二つの表面のユークリッド変換を求めることに基づく古典的表面マッチング方法は、主として剛性物体に適している。そのような方法の使用は、O.D.FaugerasおよびM.Hebert、「A 3D recognition and positioning algorithm using geometrical matching between primitive surfaces」、人工知能に関する第7回国際合同会議会報996−1002頁、1983年、さらにP.J.Besl、「The free form matching problem」、Machine vision for threedimensional scene、Freeman,H.(編集)、New York Academic、1990年、ならびにG.BarequetおよびM.Sharir、「Recovering the position and orientation of free−form objects from image contours using 3D distance map」、IEEE Trans.PAMI、19(9)、929−948頁、1997年にも詳述されている。これらの三つの文書の内容をこれにより参照によって本書に組み込む。
本発明の開示から明らかなように、人間の顔は、顔の表情の結果生じる変形を受けるので、決して剛性物体とみなすことはできない。他方、顔表面が受ける変形の分類は無原則ではなく、実験観察は、顔の表情が等長的な(つまり長さが維持される)変形としてモデル化することができることを示している。そのような変形は延伸されず、それらが顔を引き裂くこともない。さらに厳密には、人間の顔が受ける変形は表面の計量を維持すると言うことができる。そのような変形の結果生じる表面は、等長表面と呼ばれる。変形可能な表面マッチングアルゴリズムの要件は、すべての等長表面に対して同一である表現を見つけることである。
E.L.Schwartz、A.Shaw、およびE.Wolfson、「A numerical solution to the generalized mapmaker’s problem:flattening non−convex polyhedral surfaces」、IEEE Trans.PAMI、11、1005−1008頁、1989年は、平面モデルによって湾曲表面を研究するためのツールとしての多次元スケーリング(MDS)の使用を初めて紹介した。その内容を参照によって本書に組み込む。G.Zigelman、R.Kimmel、およびN.Kiryati、「Texture mapping using surface flattening via mult−dimensional scaling」、IEEE Trans. Visualization and Comp. Graphis、8、198−207頁、2002年、ならびにR.Grossman、N.Kiryati、およびR.Kimmel、「Computational surface flattening:a voxel−based approach」、IEEE Trans.PAMI、24、433−441頁、2002年は、これらの概念の一部をテクスチャマッピングおよびボクセルを利用した皮質平坦化の問題に拡大した。これらの最後の二つの引用文献の内容もまたここで参照によって本書に組み込む。
この手法の一般化は、A.Elad、R.Kimmel、「Bending invariant representations for surfaces」、Proc.CVPR、168−174頁、2001年に紹介された。その内容を、物体認識のための枠組として、これにより参照によって組み込む。彼らは、等長変形下で不変の表面の表現を構成するための効率的なアルゴリズムを示した。湾曲不変量正準形としてそこに記載された方法を、本実施形態で簡便な表現として利用する。
顔表面Sの多面体近似を前提として、そのような近似は、有限組の点p(i=1,...,n)で基礎を成す連続表面をサンプリングし、かつ表面
δ(p,p)=δij (10)
に関連する計量δを打ち切ることによって、得たものと考えることができる。
δijの値をマトリックス形で書くと、表面点間の相互距離のマトリックスが得られる。便宜上、本発明者らは二乗相互距離
(△)ij=δ ij (11)
を定義する。
マトリックスΔは等長表面変形下では不変であるが、それは任意の順序付けおよび表面点の選択に依存するので、等長表面の一意表現ではない。本発明者らは、一方では等長表面に対し一意の幾何学的不変量であって、他方では簡単な剛性表面マッチングアルゴリズムを使用してそのような不変量を比較することを可能にする、幾何学的不変量を得たいと思っている。二乗相互距離を非類似性の特定の事例として扱うことにより、表面を低次元ユークリッド空間Rに埋め込むために、前の実施形態に関連して示した、多次元スケーリング(MDS)と呼ばれる次元数削減技術を適用することができる。これは、二つの計量空間間のマッピングを求めることに等しい。
φ:(S,δ)→(R,d);φ(p)=x (12)
これは、一部の単調関数fの場合、埋込み誤差
ε=f(|δij−dij|);dij=‖x−x (13)
を最小化する。
得られたm次元表現は、表面点pに対応する一組の点x∈Rm(i=1,...,n)である。
測地線距離の測定
所与の表面の正準形の構成の重要なステップの一つは、表面の測地線距離つまりδijの計算のための効率的なアルゴリズムである。以下で三角形分割領域の高速マーチング(FMDT)と呼ぶ、三角形分割領域に対する距離計算のための数値的に一環したアルゴリズムは、EladおよびKimmelによって使用されたものであり、前の実施形態に関連して上述した。FMTDはKimmelおよびSethianによって高速マーチング方法の一般化として提唱された。
FMTDを使用して、表面頂点とn個の表面頂点の残りとの間の測地線距離は、O(n)演算で計算することができる。SIAM Journal on Numerical Analysis 2001年7月に出版のために提出されたJ.SethianおよびA.Vladimirsky、「Ordered upwind methods for static Hamilton−Jacobi equations: theory and applications」、Technical Report PAM 792(UCB)、Center for Pure and Applied Mathematics 2001、ならびにF.M’moliおよびG.Sapiro、「Fast computation of weighted distance functions and geodesics on implicit hyper−surfaces」、Journal of Computational Physics,173(2)、730−764頁、2001年にも論じられているように、多様体の距離の測定は、関数および陰的多様体のグラフのために、前に実行されている。上記引用文献の両方の内容を参照によって本書に組み込む。
しかし、上記の引用文献とは対照的に、本実施形態の焦点は表面再構成の実行を回避することである。したがって、本実施形態は、表面勾配▽zの値だけを使用して表面上の測地線距離を算出する、FMTDの変更バージョンを利用する。表面勾配値は例えばフォトメトリックステレオまたは構造光から得ることができる。
今、図34を参照すると、それは直交格子U120が変換Xを介して多様体122上に投影されて、非直交格子X(U)124が形成されることを示す簡易図である。
顔表面は、パラメータ表示面U=(u,u)=(x,y)から媒介変数多様体へのマッピング23X:→RRによって表わされる媒介変数多様体と考えることができる。
X(U)=(x(u,u),x(u,u),x(u,u)) (16)
これは次に
X(U)=(x,y,z(x,y)) (17)
と書くことができる。
に関するXの導関数は、
と定義され、それらは図示するように多様体上の非直交座標系124を構成する。上記方程式(17)の特定の事例では、次の通りである。
=(1,0,z),X=(1,0,z) (18)
多様体上の距離要素は、
であり、ここで本発明者らはアインシュタインの総和規約を使用し、多様体の計量テンソルgijを次式によって求めた。
J.A.Sethian、「A review of the theory, algorithms, and applications of level set method for propagating surfaces」、Acta numerica、303−395頁、1996年に論じられた古典的高速マッチング方法は、直交座標系の距離を計算する。その内容をこれにより参照によって組み込む。格子点の更新のための数値ステンシルは、直角三角形の頂点から成る。本事例では、g12≠Uであり、結果的に得られる三角形は必ずしも直角ではない。格子点が鈍角三角形であるステンシルによって更新される場合、したがって問題が発生するかもしれない。ステンシルの点の一つの値は、時間内にセットされないかもしれず、使用することができない。鈍角三角形を含む三角形分割領域の高速マーチングには、同様の問題がある。該問題および可能な解決策がさらに、R.KimmelおよびJ.A.Sethian、「Computing geodesic on manifolds」、Proc.US National Academy of Science 95、8431−8435頁、1998年に論じられており、その内容をこれにより参照によって組み込む。
本発明者らの解決策は、上記文献のそれと同様である。本実施形態では、格子に対し前処理段階を実行し、そこで全ての鈍角三角形を図35に示すように二つの鋭角三角形に分割する。図35は、1および2と表示された二つの元の三角形を示す。三角形1は固有数値支持を与えるが、三角形2は依然として鈍角である。したがって三角形2は三角形3および4によって置換される。分割は、追加エッジを加え、更新された格子点を非隣接格子点と接続することによって実行される。遠い格子点は数値ステンシルの一部となる。分割の必要性は、格子点における非直交軸間の角度によって決まる。それは、
によって計算される。
cosα=0ならば、軸は直交し、分割は必要無い。cosα<0ならば、角度αは鈍角であり、分割しなければならない。(21)の分母は常に正であるので、分子g12の符号だけを検査する必要がある。
角度を分割するために、更新された格子点を、その点からX方向にm個の格子点、およびX方向にn個の格子点だけ離れた位置にある別の点と接続する。mおよびnは負数とすることができることに注目されたい。新たに接続された点は、鈍角が二つの鋭角に分割された場合、固有支持点である。cosα<0の場合、
および
であるならば、これがそうである。
また、分子の符号を検査すれば十分である。cosα>0の場合、cosβはその符号を変化し、制約条件は次のようになる。
mg11+ng12>0,mg12+ng22<0 (24)
このプロセスが全ての格子点に対して行なわれる。前処理段階が終わると、各格子点に対し適切な数値ステンシルを持つことになり、距離を計算することができる。
使用する数値方式は、展開ステップを実行する必要が無いことを除けば、上述したKimmelおよびSethianのそれと同様である。鈍角三角形を分割する支持格子点はより効率的に見出すことができる。必要な三角形のエッジ長および角度は、格子点の表面計量gijに応じて計算され、それは今度は表面勾配z、zを使用して算出される。より詳細な記述は、2003年の発表用に提出されたA.SpiraおよびR.Kimmel、「An efficient solution to the eikonal equation on parametric manifolds」に出ている。その内容をこれにより参照によって組み込む。
3D顔認識
今、図37Aを参照すると、それは本実施形態を実行するための装置を示す簡易ブロック図である。3Dスキャンシステム126は、表面勾配データを得るために、3Dデータ取得を実行する。プリプロセッサ128は生データの前処理を実行する。センタリングおよびクロッピングのような予備的処理は、単純なパターンマッチングによって実行することができ、それは前の実施形態で論じたように、人間の顔の最もよく認識可能な特徴として目を使用することができる。
処理を顔自体に属する表面に制限するために、顔の輪郭をも抽出することが好ましい。換言すると、初期スキャンは、顔自体に属しない領域を含むことができる。
前の実施形態に関連して論じたように、前処理は変化し難い顔の部分に重点を置き、髪のように容易に変えることのできる部分は除外することが好ましい。本実施形態を使用する実験研究では、前処理段階は、鼻尖を中心とする楕円形(測地線的な意味で)の外側に位置する部分を除去することによって、三角形分割多様体をクロップすることに限定した。
FMTDユニット130は、n個の選択された頂点の各々から顔上の点までの距離にFMTDを適用して、n×nの相違度距離マトリックスを形成する。MDSユニット132は次いでマトリックスに多次元スキャンを適用して、再び前の実施形態で論じたように、表面の低次元正準形を形成する。正準形は次いでコンパレータ134への入力として使用され、データベース136内の正準形として表現された他の顔と比較される。
今、図37Bを参照すると、それは顔の再構成無しの3D顔認識のプロセスを示す簡易フローチャートである。第一ステップS140として、本実施形態に係る3D顔認識システムは、上述したように、表面勾配▽zを取得する。段階S142では、図37Aに関連して論じたように、生データが処理される。簡単に言うと、人間の顔の最もよく認識可能な特徴として目を使用して、単純なパターンマッチングによってセンタリングおよびクロッピングを実行することができる。
処理を顔自体に属する表面のみに限定するために、顔の輪郭も抽出することができる。
論じたように、前処理は変化し難い顔の部分に重点を置き、髪のように容易に変えることのできる部分は除外することが好ましい。本実施形態を使用する実験研究では、前処理段階は、鼻尖を中心とする楕円形(測地線的な意味で)の外側に位置する部分を除去することによって、三角形分割多様体をクロップすることに限定した。
次に、段階S144では、n個の選択された頂点の各々からFMTDを適用することによって、以下で距離マトリックスという測地線距離のn×n相違度マトリックスを作成する。次いで、段階S146で、MDSつまり多次元スケーリングを距離マトリックスに適用し、低次元ユークリッド空間に顔の正準形を生成する。上述した実験研究では、三次元空間を使用した。上記の方法で得た正準形を次いで、一対多数型マッチングプロセスで他の被写体に対応するテンプレートのデータベースと、または一対一型マッチングで単一の格納されたテンプレートと比較する。比較した正準形の対応性が数値の特定の統計範囲内に該当した場合、合致は有効とみなされる。
正準形間の対応性の探知は、前の実施形態に関連して論じた表面マッチングの問題に我々を引き戻す。本実施形態の利点は一般的に、マッチングが、変形可能な顔表面自体ではなく、本質的な物体幾何学を伝える剛性正準形の間で実行されることである。したがって、最も単純な剛性表面マッチングアルゴリズムでさえも、もっともらしい結果を生み出す。
実験結果
すでに言及したように、実験研究を上述した実施形態に従って実行し、実際の顔表面の再構成無しに得られた正準形の比較が、再構成および表面の直接比較より優れていることを実証した。前の実施形態での実験研究と同様に、Yale顔データベースBを使用した。該データベースは、制御された照明条件で撮影された、白人およびアジア型の両方の10の被写体の異なるインスタンスの高解像度グレースケール画像から構成される。今、図36を参照すると、それは五つの異なる角度から照明された単一の被写体を示す。五つの場合36A...36Eに対し、(0°,0°)(0°,−20°)(0°,+20°)(−25°,0°)(+25°,0°)の照明角度がそれぞれ使用される。括弧内の数字はそれぞれアジマスおよび仰角を示し、それによって照明方向を決定する。実験は、データベースから取った七つの異なる被写体から取った図36に示す種類のインスタンスを使用した。
直接表面マッチングは、五つの異なる照明方向を使用して上述した方程式(6)に従って表面勾配を検索し、方程式(7)に従って表面を再構成し、方程式(25)に従って表面積率シグネチャを位置合わせしかつ計算することから構成される。正準形は表面勾配から算出され、位置合わせされ、方程式(25)に従って積率シグネチャに変換される。
今、図38を参照すると、それは、表面データの処理における三つの連続的段階を示す。図38Aは表面勾配フィールドを示し、図38Bは再構成された表面を示し、図38Cは表面として表わされた湾曲不変量正準形を示す。図38は単に説明を目的として示すものであって、説明するように、本実施形態は、いずれの処理段階でも表面を実際に再構成することなく、図38Cによって表わされた正準形を使用することができることを強調する。
今、図39を参照すると、それは本実施形態に係る顔およびさまざまな顔の間の距離の3Dプロットで囲まれた、一組の顔を真ん中に示す。顔認識結果の可視化を三次元近接パターンで示す。顔データベースからの被写体は、被写体間の相対距離にMDSを適用することによって得られた点として表わされる。単純な表面マッチング(A)および正準形(B)の両方がグラフに示されている。換言すると、該実施形態の精度の印象を得るために、本発明者らは各アルゴリズムによって生成された被写体間の相対距離を3D近接パターンに変換した。Rで各被写体を点として表わす近接パターンは、相対距離にMDSを適用することによって得た、1%未満の歪みを生じた。
ドット群全体を、現在C−Cと呼ばれる、七つの被写体のインスタンスによって形成されるクラスタに区分した。視覚的に、Cが密でありかつ他のクラスタから離れている状態であればあるほど、アルゴリズムは正確である。定量的に、
(i)Cの分散σ
(ii)Cのセントロイドと最近接クラスタのセントロイドとの間の距離d
を測定した。
表Iはアルゴリズムの定量的比較を示す。クラスタ間距離dは分散σ単位で与えられる。表はCないしCの結果に限定される。
正準形の使用はクラスタの分散およびクラスタ間距離を、直接顔表面マッチングに比較して、約1桁だけ改善した。
本実施形態は関連実験と共に、顔表面の再構成無しに、いかに3D顔認識を実行するかを実証する。湾曲不変量表現に基づく3D顔認識は、従来提唱された解決策とは異なり、顔認識を顔の表情、頭部の回転、および照明条件に対し頑健にする。本実施形態は、高速かつ正確な顔認識のために単純な3D取得技術(例えばフォトメトリックステレオ)の効率的な使用を可能にすることによって、本書で論じた前の実施形態をもっと改善する。
固有形式(eigenform)を使用した3D顔認識
今、図40を参照すると、それは本発明のさらなる好適な実施形態を示す簡易フローチャートである。図40の実施形態では、第一ステップS150として、レンジカメラを使用して3D画像を取得する。取得された画像は実際は、顔のレンジ画像または三次元幾何学、および顔の2D画像または顔のテクスチャの二つの別個の画像を含む。レンジ画像はステップ152で三角形分割表面に変換され、段階154でスプライン処理を使用して平滑化される。顔の輪郭線より外側の領域は段階156でクロップされ、段階158で表面は、約2000〜2500個の頂点のサイズに間引かれる。次に、段階160で、顔の湾曲不変量正準形が算出され、前の実施形態に関連して記載した手順を使用して位置合わせされる。
固有分解の適用はこの表現では単純である。固有顔の場合と同様に、本発明者らは訓練セットを有し、それは今、
の形の一組のデュプレット(duplet)である。
分かり易くするために別個の実施形態の文脈で記載した本発明の特定の特徴は、単一の実施形態に組み合わせて提供することもできることを理解されたい。逆に、簡潔にするために単一の実施形態の文脈で記載した本発明の様々な特徴は、別個にまたはいずれかの適切な部分組合せで提供することもできる。
本発明をその特定の実施形態に関連して記載したが、多くの代替例、変形例、および変化例が当業者には明らかであろうことは明白である。したがって、請求の範囲に記載する精神および広い範囲に該当する、そのような代替例、変形例、および変化例を全て範囲内に含めることを意図する。本明細書で示した全ての出版物、特許、および特許出願は、個々の出版物、特許、および特許出願が各々具体的にかつ個別に参照によって本書に組み込まれると指摘された場合と同程度に、その全文が参照によって本明細書に組み込まれる。さらに、本願におけるいずれかの参考文献の引用または識別は、そのような参考文献が本発明の先行技術として利用可能であるという許可と解釈してはならない。
本発明の第一の好適な実施形態に従って、体の3Dトポグラフィデータを収集し、かつ該データを処理して効果的なマッチングのための正準形表現にするための装置の好適な実施形態を示す簡易ブロック図である。 本発明の第二の好適な実施形態に従って、正準形表現の3Dトポグラフィデータを受け取り、かつマッチングまたは分類を実行するための装置の簡易図である。 各々異なる照明条件下で撮影した単一の顔の一連の2D表現である。 深度符号化照明を使用した3Dデータ収集の第一段階及び第二段階を示す簡易模式図である。 ビデオカメラおよび移動レーザプロジェクタを備えた3Dスキャナ装置を示す写真である。 フォトメトリックステレオ取得方式を示す簡易模式図である。 顔の3Dスキャンによって収集したデータ点を使用した三角形分割多様体表現である。 サブサンプリング後の図7の多様体を示す簡易図である。 図1のサブサンプラをより詳細に示す簡易ブロック図である。 図1の測地線変換器をより詳細に示す簡易ブロック図である。 本発明の好適な実施形態の動作を示す簡易フローチャートである。 図11のサブサンプリング段階をより詳細に示す簡易フローチャートである。 第一実験の被写体として使用された六つの顔のデータベースである。 図1の顔の一つ、表情の変化をシミュレートするための顔のバリエーション、および主要特徴の変化を示すためのさらなるバリエーションを示す。 三次元特徴空間にプロットされた第一実験の結果を示すグラフである。 所定の顔の九種類の照明、およびフォトメトリックステレオを使用しポアソン方程式を解くことによる多様体へのそれらの再構成を示す。 第二実験用の異なる被写体の九つの顔の照明から最小二乗を使用して各々再構成された一組10個の顔である。 実験II用の各々異なるポーズの単一の被写体の一組の画像である。 三次元特徴空間にプロットされた第二実験の結果を示すグラフである。 二つの顔表面の位置合わせプロセスを示す模式図である。 三次元特徴空間にプロットされた位置合わせ無しの第三実験の結果を示すグラフである。 三次元特徴空間にプロットされた最適位置合わせ実行後の第三実験の結果を示すグラフである。 第四実験用の被写体として使用された、さらなるデータベースからの一組三個の顔である。 第四実験用でもある図23の顔の一組三個のポーズである。 前処理の一部としてマスクを適用する前の顔のテクスチャマップを示す。 測地線マスクを適用した後の図25のテクスチャマップを示す。 前処理の一部としてマスクを適用する前の顔の深度マップを示す。 測地線マスクを適用した後の図27の深度マップを示す。 3Dトポグラフィ画像データから直接得た三角形分割多様体を示す。 サブサンプリング後の図29の多様体を示す。 正準形に変換された図29の多様体を示す。 3Dデータ取得のための観察および照明角度を示す簡易図である。 表面勾配と局所的ストライプ方向との間の関係を示す簡易図である。 三次元多様体へのデカルト座標のマッピングを示す簡易図である。 測地線距離を測定するための起点となる追加頂点の選択のプロセスを示す簡易図である。 様々な角度から照明された一連の同じ顔を示す。 本発明の好適な実施形態に従って、顔の3D表現を処理し、かつ中間ステップとして3D表面を形成することなく処理結果のマッチングを実行するための装置を示す簡易ブロック図である。 図37Aの装置の使用に関わる一連の動作を示す簡易フローチャートである。 収集した顔情報の処理における三つの段階、最初のデータ収集、3D表現の抽出、および顔の不変領域に集中するための前処理を示す簡易図である。 図37Aの実施形態を使用して得た結果を示す。 テクスチャ情報を図1の実施形態のマッチングプロセスに組み込むための手順を示す単一のフローチャートである。 テクスチャ情報を図1の実施形態のマッチングプロセスに組み込むための手順を示す単一のフローチャートである。 図40および41の実施形態に係るテクスチャデータの分離、およびその後の正準形式へのマッピングを示す簡易図である。

Claims (57)

  1. マッチングのための幾何学体の三次元データを処理するための装置であって、
    前記幾何学体の三次元トポグラフィデータを含む入力を受け取り、かつ前記データを、前記データの点対間の一連の測地線距離に変換するための測地線変換器と、
    その後前記測地線変換器に接続され、前記一連の測地線距離の低次元ユークリッド表現を形成するための多次元スケーラであって、前記低次元ユークリッド表現が他の幾何学形状とのマッチングに適した前記幾何学体の湾曲不変量表現を提供するように構成された多次元スケーラと、
    を備える装置。
  2. 前記測地線変換器の前に接続されたトライアンギュレータであって、前記三次元トポグラフィデータを受けとり、そこから前記測地線変換器の前記入力として使用される三角形分割による多様体を形成するように構成されたトライアンギュレータをさらに備える請求項1に記載の装置。
  3. 前記測地線変換器は、
    n個の頂点の選択のための特徴と、
    三角形分割領域の高速マーチングを使用して前記n個の頂点から前記三次元トポグラフィデータまでの測地線距離を算出するための特徴と、
    前記測地線距離から距離マトリックスを形成するためのタブレータと、
    を備える請求項1に記載の装置。
  4. 前記多次元スケーラは、前記距離マトリックスから前記一連の測地線距離を得るために接続される請求項3に記載の装置。
  5. 前記トライアンギュレータの後で前記測地線変換器の前に配置され、前記三角形分割多様体をサブサンプリングし、かつサブサンプリングされた三角形分割多様体を前記測地線変換器に提供するように構成された、サブサンプラをさらに備える請求項2に記載の装置。
  6. 前記多様体は複数の頂点を備え、前記サブサンプラは第一頂点を選択し、かつ、予め定められた個数の頂点が選択されるまで、すでに選択された頂点からの最大測地線距離を有する次の頂点を繰返し選択するように動作可能である請求項5に記載の装置。
  7. 前記サブサンプラは、三角形分割領域の高速マーチング法を使用して、前記繰返し選択のために頂点間の測地線距離を算出するように動作可能である請求項6に記載の装置。
  8. 前記幾何学体は顔であり、短期の幾何学的変化を受け易い前記顔の領域であるソフトな幾何学的領域と、前記短期の幾何学的変化を実質的に受け難い領域であるハードな幾何学的領域とを有し、前記装置は、前記サブサンプラの前に配置された、前記顔から前記ソフトな幾何学的領域を除去するためのプリプロセッサを備える請求項5に記載の装置。
  9. 前記プリプロセッサは、前記顔上の標定点の識別によって、前記ソフトな領域を識別するように動作可能である請求項8に記載の装置。
  10. 前記標定点は、鼻尖、一対の眼球中心、および口の中心のうちの少なくとも一つである請求項9に記載の装置。
  11. 前記プリプロセッサはさらに、前記顔を中心に合わせるように動作可能である請求項8に記載の装置。
  12. 前記プリプロセッサはさらに、前記顔をクロッピングするように動作可能である請求項8に記載の装置。
  13. 前記プリプロセッサは、測地線マスクの適用によって、前記ソフトな領域の除去を実行するように動作可能である請求項8に記載の装置。
  14. 前記測地線変換器は、三角形分割領域の高速マーチング法を使用して、前記測地線距離を算出するように動作可能である請求項2に記載の装置。
  15. 幾何学体のスキャンデータから前記三角形分割多様体を形成するためのトライアンギュレータをさらに備える請求項2に記載の装置。
  16. 二次元より高次の空間内に前記三角形分割多様体を埋め込み、それによって追加情報と前記トポグラフィ情報を含めるようにさらに動作可能である請求項15に記載の装置。
  17. 前記追加情報は、テクスチャ情報、アルベド情報、グレースケール情報、および色情報から成る群のいずれか一つである請求項16に記載の装置。
  18. 前記サブサンプラは、計算量と表現精度との間のトレードオフを定義することによって、使用者に最適なサブサンプリングレベルを選択させるための最適化装置を備える請求項5に記載の装置。
  19. 前記多次元スケーラは、前記ユークリッド表現が特徴空間における座標として使用するために抽出可能な予め定められた個数の固有値を備えるように構成される請求項1に記載の装置。
  20. 固有値の前記予め定められた個数は少なくとも3であり、前記特徴空間は、前記予め定められた個数に対応する次元数を持つ請求項19に記載の装置。
  21. 前記多次元スケーラは、前記低次元ユークリッド表現上に前記三次元表面のテクスチャデータをマッピングするためのマッパーによって続く請求項1に記載の装置。
  22. 前記ユークリッド表現をデカルト格子上へのテクスチャマッピングで補間するために前記マッパーの後に接続された補間器をさらに備える請求項21に記載の装置。
  23. 表面及びテクスチャデータのそれぞれの前記デカルト格子からの別個の固有分解を実行し、それによってテクスチャおよび表面のそれぞれについて固有分解係数の対を形成するように構成された固有分解ユニットを備える請求項22に記載の装置。
  24. 前記固有分解係数の対を使用して他の幾何学体への距離を算出するためのコンパレータをさらに備え、前記距離は前記マッチングのために二値化可能であることができる請求項23に記載の装置。
  25. 前記距離は重み付けユークリッド距離である請求項24に記載の装置。
  26. 三次元データに基づく幾何学体間のマッチングのための装置において、
    幾何学体の表現を、三角形分割多様体のサンプリング点間の測地線距離の組のユークリッド表現として受け取るための入力であって、前記ユークリッド表現が実質的に湾曲不変量表現であるように構成された入力と、
    前記ユークリッド表現に基づいてそれぞれの幾何学体間の距離を算出するための距離算出器と、
    算出された距離を二値化して、合致の有無を決定するためのスレショルダと、
    を備えた装置。
  27. 前記距離算出器は、
    予め定められた個数の固有値を前記ユークリッド表現から抽出するための固有値抽出器と、
    前記予め定められた個数の固有値を、前記予め定められた個数の固有値の各々に対し一次元を有する特徴空間上の点としてプロットするためのプロッタと、
    を備え、
    前記スレショルダは前記特徴空間内のクラスタリングに感応するように構成され、それによって前記合致の有無を決定する請求項26に記載の装置。
  28. 前記予め定められた個数は3である請求項27に記載の装置。
  29. 前記ユークリッド表現は、前記三角形分割多様体のサブサンプリング点間の測地線距離に基づく請求項26に記載の装置。
  30. 前記幾何学体は顔であり、短期の幾何学的変化を受け易い領域であるソフトな幾何学的領域と、短期の幾何学的変化を実質的に受け難い領域であるハードな幾何学的領域とを有し、前記ユークリッド表現は実質的に前記ハードな幾何学的領域に限定される請求項26に記載の装置。
  31. 前記距離算出器は、ハウスドルフ計量を使用するように構成される請求項26に記載の装置。
  32. マッチングのための幾何学体の三次元データを得、かつ前記データを使用して異なる体間のマッチングを実行するための装置であって、
    前記体の三次元トポグラフィデータを得るための三次元スキャナと、
    前記幾何学体の前記三次元トポグラフィデータを受け取り、かつ前記データを三角形分割多様体に形成するためのトライアンギュレータと、
    その後前記トライアンギュレータに接続され、前記三角形分割多様体を前記多様体の点対間の一連の測地線距離に変換するための測地線変換器と、
    その後前記測地線変換器に接続され、前記一連の測地線距離の低次元ユークリッド表現を形成するための多次元スケーラであって、前記低次元ユークリッド表現が前記幾何学体の湾曲不変量表現を提供するように構成された多次元スケーラと、
    その後前記多次元スケーラに接続され、前記ユークリッド表現に基づき幾何学体間の距離を算出するための距離算出器と、
    その後前記距離算出器に接続され、算出された距離を二値化して合致の有無を決定するためのスレショルダと、
    を備えた装置。
  33. 前記距離算出器は、
    予め定められた個数の固有値を前記ユークリッド表現から抽出するための固有値抽出器と、
    前記予め定められた個数の固有値を、前記予め定められた個数の固有値の各々に対し一次元を有する特徴空間上の点としてプロットするためのプロッタと、
    を備え、
    前記スレショルダは前記特徴空間内のクラスタリングに感応するように構成され、それによって前記合致の有無を決定する請求項32に記載の装置。
  34. 前記予め定められた個数は3である請求項33に記載の装置。
  35. 前記予め定められた個数は4以上である請求項33に記載の装置。
  36. 前記トライアンギュレータと前記測地線変換器との間に配置され、前記三角形分割多様体をサブサンプリングし、かつサブサンプリングされた三角形分割多様体を前記測地線変換器に提供するように構成された、サブサンプラをさらに備える請求項32に記載の装置。
  37. 前記サブサンプラは、前記サブサンプリングされた三角形分割多様体に含めるために、前記三角形分割多様体から点を選択する際に、測地線距離を使用するように動作可能である請求項36に記載の装置。
  38. 前記サブサンプラは、初期点を取り、次いで、すでに選択された点からの測地線距離に関して最も遠く離れた点を取ることによって点を繰返し選択するように構成される請求項37に記載の装置。
  39. 前記幾何学体は、ソフトな幾何学的領域とハードな幾何学的領域とを有する顔であり、前記装置は、前記トライアンギュレータと前記サブサンプラとの間に配置された、前記ソフトな幾何学的領域を前記顔から除去するためのプリプロセッサを備える請求項36に記載の装置。
  40. 前記幾何学体は、ソフトな幾何学的領域とハードな幾何学的領域とを有する顔であり、前記装置は、前記トライアンギュレータと前記測地線変換器との間に配置された、前記ソフトな幾何学的領域を前記顔から除去するためのプリプロセッサを備える請求項32に記載の装置。
  41. 前記プリプロセッサは、前記顔上の標定点の識別によって前記ソフトな領域を識別するように動作可能である請求項39に記載の装置。
  42. 前記標定点は鼻尖である請求項41に記載の装置。
  43. 前記プリプロセッサはさらに、前記顔を中心に合わせるように動作可能である請求項39に記載の装置。
  44. 前記プリプロセッサはさらに、前記顔をクロッピングするように動作可能である請求項39に記載の装置。
  45. 前記プリプロセッサは、測地線マスクの適用によって前記ソフトな領域の除去を実行するように動作可能である請求項39に記載の装置。
  46. 前記測地線変換器は、三角形分割領域の高速マーチング法を使用して、前記測地線距離を算出するように動作可能である請求項32に記載の装置。
  47. 前記測地線変換器は、三角形分割領域の高速マーチング法を使用して、対応する表面の再構成を介在させずに多様体勾配フィールドから直接、前記測地線距離を算出するように動作可能である請求項32に記載の装置。
  48. 計算量と表現精度との間のトレードオフを定義することによって、使用者に最適なサブサンプリングレベルを選択させるための最適化装置をさらに備える請求項32に記載の装置。
  49. 前記距離算出器は、ハウスドルフ計量を使用するように構成される請求項32に記載の装置。
  50. 三次元トポグラフィデータをその後の分類のために画像前処理する方法であって、
    前記三次元トポグラフィデータを三次元三角形分割多様体として提供するステップと、
    前記多様体の選択された頂点までの測地線距離のマトリックスを生成するステップと、
    多次元スケーリングを使用して前記マトリックスを低次元ユークリッド空間の正準表現に変換し、それによってその後の分類に適した表現を提供するステップと、
    を含む方法。
  51. 予め定められた個数の頂点が選択されるまで、すでに選択された頂点からの最大測地線距離を有する次の頂点を繰返し選択することを含む手順によって、測地線距離の前記マトリックスを生成するために前記頂点を選択するステップをさらに含む請求項50に記載の方法。
  52. 三角形分割領域の高速マーチング法を使用して、前記手順のために測地線距離を決定するステップを含む請求項51に記載の方法。
  53. 前記三次元トポグラフィデータは顔の表現であり、前記顔の短期変化を受け易い部分を除外するために前記顔をクロッピングするステップをさらに含み、それによって前記その後の分類を前記短期変化に対し実質的に不変にする請求項50に記載の方法。
  54. 三次元体の画像を分類する方法であって、
    前記三次元体の表現を、前記体の表面から取った選択標本点間の測地線距離から導出される正準形表現として得るステップと、
    前記各表現から特徴空間の座標を導出するステップと、
    前記特徴空間のクラスタリングに従って前記三次元体を分類するステップと、
    を含む方法。
  55. 前記座標の導出は、それぞれの正準形表現から最初のm個の固有値を導出するステップと、前記m個の固有値を使用して前記座標を提供するステップとを含み、ここでmは予め定められた数であり、前記特徴空間はm次元を持つように構成される請求項54に記載の方法。
  56. mは少なくとも3である請求項55に記載の方法。
  57. mは3である請求項55に記載の方法。
JP2004541146A 2002-10-07 2003-10-07 三次元顔認識 Expired - Lifetime JP4445864B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US41624302P 2002-10-07 2002-10-07
US10/284,281 US6947579B2 (en) 2002-10-07 2002-10-31 Three-dimensional face recognition
PCT/IL2003/000805 WO2004032061A2 (en) 2002-10-07 2003-10-07 Three dimensional face recognition

Publications (3)

Publication Number Publication Date
JP2006502478A true JP2006502478A (ja) 2006-01-19
JP2006502478A5 JP2006502478A5 (ja) 2006-11-24
JP4445864B2 JP4445864B2 (ja) 2010-04-07

Family

ID=32072883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004541146A Expired - Lifetime JP4445864B2 (ja) 2002-10-07 2003-10-07 三次元顔認識

Country Status (8)

Country Link
US (3) US6947579B2 (ja)
EP (1) EP1550082B1 (ja)
JP (1) JP4445864B2 (ja)
KR (1) KR101007276B1 (ja)
AT (1) ATE454675T1 (ja)
AU (1) AU2003272048A1 (ja)
DE (1) DE60330880D1 (ja)
WO (1) WO2004032061A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011515736A (ja) * 2008-02-27 2011-05-19 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
JP2014517380A (ja) * 2011-04-28 2014-07-17 コーニンクレッカ フィリップス エヌ ヴェ 顔の位置検出
JP2015130972A (ja) * 2014-01-10 2015-07-23 キヤノン株式会社 処理装置、処理方法、およびプログラム
KR20180014676A (ko) * 2016-08-01 2018-02-09 코그넥스코오포레이션 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법
JP2018110852A (ja) * 2016-12-30 2018-07-19 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 電気解剖学的マップ上での点の選択

Families Citing this family (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993186B1 (en) * 1997-12-29 2006-01-31 Glickman Jeff B Energy minimization for classification, pattern recognition, sensor fusion, data compression, network reconstruction and signal processing
CN1669052B (zh) * 2002-07-10 2010-05-26 日本电气株式会社 使用三维物体模型的图像匹配系统以及图像匹配方法
US6947579B2 (en) * 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US7421098B2 (en) * 2002-10-07 2008-09-02 Technion Research & Development Foundation Ltd. Facial recognition and the open mouth problem
US7242807B2 (en) * 2003-05-05 2007-07-10 Fish & Richardson P.C. Imaging of biometric information based on three-dimensional shapes
US20040223649A1 (en) * 2003-05-07 2004-11-11 Eastman Kodak Company Composite imaging method and system
US7151969B2 (en) * 2003-06-26 2006-12-19 International Business Machines Corporation Administering devices in dependence upon user metric vectors with optimizing metric action lists
US20050111705A1 (en) * 2003-08-26 2005-05-26 Roman Waupotitsch Passive stereo sensing for 3D facial shape biometrics
GB0326186D0 (en) * 2003-11-10 2003-12-17 Omniperception Ltd 2d face authentication system
US7212330B2 (en) * 2004-03-22 2007-05-01 Angstrom, Inc. Three-dimensional imaging system for pattern recognition
WO2006078265A2 (en) * 2004-03-30 2006-07-27 Geometrix Efficient classification of three dimensional face models for human identification and other applications
WO2005098744A2 (en) * 2004-04-06 2005-10-20 Rf Intelligent Systems, Inc. Handheld biometric computer for 2d/3d image capture
US8175345B2 (en) 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US8229184B2 (en) * 2004-04-16 2012-07-24 Validity Sensors, Inc. Method and algorithm for accurate finger motion tracking
US8165355B2 (en) * 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8358815B2 (en) * 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8447077B2 (en) * 2006-09-11 2013-05-21 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US8131026B2 (en) 2004-04-16 2012-03-06 Validity Sensors, Inc. Method and apparatus for fingerprint image reconstruction
US8066384B2 (en) 2004-08-18 2011-11-29 Klip Collective, Inc. Image projection kit and method and system of distributing image content for use with the same
EP1800243B1 (en) 2004-10-04 2010-08-11 Validity Sensors, Inc. Fingerprint sensing assemblies comprising a substrate
US7684602B2 (en) * 2004-11-18 2010-03-23 Siemens Medical Solutions Usa, Inc. Method and system for local visualization for tubular structures
US7809171B2 (en) * 2005-01-10 2010-10-05 Battelle Memorial Institute Facial feature evaluation based on eye location
US7324688B2 (en) * 2005-02-14 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Face relighting for normalization of directional lighting
US7415152B2 (en) * 2005-04-29 2008-08-19 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
US20060285746A1 (en) * 2005-06-17 2006-12-21 Sherif Yacoub Computer assisted document analysis
US8005652B2 (en) * 2005-08-31 2011-08-23 Siemens Corporation Method and apparatus for surface partitioning using geodesic distance
US20070081706A1 (en) * 2005-09-28 2007-04-12 Xiang Zhou Systems and methods for computer aided diagnosis and decision support in whole-body imaging
US20070109299A1 (en) * 2005-11-15 2007-05-17 Vital Images, Inc. Surface-based characteristic path generation
EP1960928A2 (en) * 2005-12-14 2008-08-27 Yeda Research And Development Co., Ltd. Example based 3d reconstruction
WO2007069260A1 (en) * 2005-12-16 2007-06-21 Technion Research & Development Foundation Ltd. Method and apparatus for determining similarity between surfaces
US7580774B2 (en) * 2006-05-10 2009-08-25 Honda Motor Co., Ltd. Characterization and classification of pose in low dimension
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
KR100828412B1 (ko) 2006-11-06 2008-05-09 연세대학교 산학협력단 멀티 포인트 신호를 이용한 3차원 얼굴 인식 방법
EP2097852A4 (en) * 2006-11-22 2013-01-02 Nader Butto SYSTEM AND METHOD FOR DIAGNOSING HUMAN BEHAVIOR BASED ON EXTERNAL BODY MARKERS
US8788529B2 (en) * 2007-02-26 2014-07-22 Microsoft Corp. Information sharing between images
JP5219184B2 (ja) * 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
US8107212B2 (en) * 2007-04-30 2012-01-31 Validity Sensors, Inc. Apparatus and method for protecting fingerprint sensing circuitry from electrostatic discharge
US20110002461A1 (en) * 2007-05-11 2011-01-06 Validity Sensors, Inc. Method and System for Electronically Securing an Electronic Biometric Device Using Physically Unclonable Functions
US8290150B2 (en) * 2007-05-11 2012-10-16 Validity Sensors, Inc. Method and system for electronically securing an electronic device using physically unclonable functions
US8090160B2 (en) * 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
US8204281B2 (en) * 2007-12-14 2012-06-19 Validity Sensors, Inc. System and method to remove artifacts from fingerprint sensor scans
US8276816B2 (en) 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
US8005276B2 (en) * 2008-04-04 2011-08-23 Validity Sensors, Inc. Apparatus and method for reducing parasitic capacitive coupling and noise in fingerprint sensing circuits
US8116540B2 (en) * 2008-04-04 2012-02-14 Validity Sensors, Inc. Apparatus and method for reducing noise in fingerprint sensing circuits
US8437570B2 (en) * 2008-05-23 2013-05-07 Microsoft Corporation Geodesic image and video processing
KR20110033207A (ko) 2008-06-17 2011-03-30 조스텐즈 인코포레이팃드 졸업 앨범 생성 시스템 및 방법
WO2010036445A1 (en) 2008-07-22 2010-04-01 Validity Sensors, Inc. System, device and method for securing a device component
WO2010021972A1 (en) * 2008-08-18 2010-02-25 Brown University Surround structured lighting for recovering 3d object shape and appearance
US8391568B2 (en) * 2008-11-10 2013-03-05 Validity Sensors, Inc. System and method for improved scanning of fingerprint edges
US8493178B2 (en) 2008-12-02 2013-07-23 Electronics And Telecommunications Research Institute Forged face detecting method and apparatus thereof
US8600122B2 (en) 2009-01-15 2013-12-03 Validity Sensors, Inc. Apparatus and method for culling substantially redundant data in fingerprint sensing circuits
US20100176892A1 (en) * 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Oscillator
US8278946B2 (en) 2009-01-15 2012-10-02 Validity Sensors, Inc. Apparatus and method for detecting finger activity on a fingerprint sensor
US8374407B2 (en) 2009-01-28 2013-02-12 Validity Sensors, Inc. Live finger detection
US20100208953A1 (en) * 2009-02-17 2010-08-19 Validity Sensors, Inc. Illuminated Fingerprint Sensor and Method
US8351654B2 (en) * 2009-04-28 2013-01-08 Microsoft Corporation Image processing using geodesic forests
JP5583761B2 (ja) * 2009-06-01 2014-09-03 ホスラー ゲルト 動的基準フレームを用いた3次元表面検出方法及び装置
US9400911B2 (en) 2009-10-30 2016-07-26 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9336428B2 (en) 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9274553B2 (en) 2009-10-30 2016-03-01 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US8791792B2 (en) 2010-01-15 2014-07-29 Idex Asa Electronic imager using an impedance sensor grid array mounted on or about a switch and method of making
US8421890B2 (en) 2010-01-15 2013-04-16 Picofield Technologies, Inc. Electronic imager using an impedance sensor grid array and method of making
US8866347B2 (en) 2010-01-15 2014-10-21 Idex Asa Biometric image sensing
US8633926B2 (en) * 2010-01-18 2014-01-21 Disney Enterprises, Inc. Mesoscopic geometry modulation
US9317970B2 (en) 2010-01-18 2016-04-19 Disney Enterprises, Inc. Coupled reconstruction of hair and skin
US9666635B2 (en) 2010-02-19 2017-05-30 Synaptics Incorporated Fingerprint sensing circuit
US8994790B2 (en) * 2010-02-25 2015-03-31 The Board Of Trustees Of The Leland Stanford Junior University Motion capture with low input data constraints
US8611670B2 (en) * 2010-02-25 2013-12-17 The Board Of Trustees Of The Leland Stanford Junior University Intelligent part identification for use with scene characterization or motion capture
US8716613B2 (en) * 2010-03-02 2014-05-06 Synaptics Incoporated Apparatus and method for electrostatic discharge protection
US9959453B2 (en) * 2010-03-28 2018-05-01 AR (ES) Technologies Ltd. Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature
USRE49044E1 (en) * 2010-06-01 2022-04-19 Apple Inc. Automatic avatar creation
US9001040B2 (en) 2010-06-02 2015-04-07 Synaptics Incorporated Integrated fingerprint sensor and navigation device
CN101894254B (zh) * 2010-06-13 2013-01-09 南开大学 一种基于等高线法的三维人脸识别方法
US8331096B2 (en) 2010-08-20 2012-12-11 Validity Sensors, Inc. Fingerprint acquisition expansion card apparatus
CN101976359A (zh) * 2010-09-26 2011-02-16 浙江大学 一种三维人脸的特征点自动定位的方法
US8577092B2 (en) * 2010-11-11 2013-11-05 Lg Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
US8538097B2 (en) 2011-01-26 2013-09-17 Validity Sensors, Inc. User input utilizing dual line scanner apparatus and method
US8594393B2 (en) 2011-01-26 2013-11-26 Validity Sensors System for and method of image reconstruction with dual line scanner using line counts
US9305356B2 (en) * 2011-02-28 2016-04-05 Kabushiki Kaisha Toshiba Image processing method and apparatus
GB2489100A (en) 2011-03-16 2012-09-19 Validity Sensors Inc Wafer-level packaging for a fingerprint sensor
DE102011015730A1 (de) * 2011-03-31 2012-10-04 Land Rheinland-Pfalz, vertreten durch das Landeskriminalamt Rheinland-Pfalz Phantombilddatenbank (3D)
CN102184410B (zh) * 2011-05-06 2012-12-12 浙江工业大学 三维复原颅面的识别方法
US10043052B2 (en) 2011-10-27 2018-08-07 Synaptics Incorporated Electronic device packages and methods
US9355366B1 (en) 2011-12-19 2016-05-31 Hello-Hello, Inc. Automated systems for improving communication at the human-machine interface
WO2013095248A1 (en) * 2011-12-22 2013-06-27 Telefonaktiebolaget L M Ericsson (Publ) Method and processor for 3d scene representation
US9195877B2 (en) 2011-12-23 2015-11-24 Synaptics Incorporated Methods and devices for capacitive image sensing
US9785299B2 (en) 2012-01-03 2017-10-10 Synaptics Incorporated Structures and manufacturing methods for glass covered electronic devices
US8781173B2 (en) 2012-02-28 2014-07-15 Microsoft Corporation Computing high dynamic range photographs
US9137438B2 (en) 2012-03-27 2015-09-15 Synaptics Incorporated Biometric object sensor and method
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
US9268991B2 (en) 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
US9600709B2 (en) 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
US9152838B2 (en) 2012-03-29 2015-10-06 Synaptics Incorporated Fingerprint sensor packagings and methods
EP2958052B1 (en) 2012-04-10 2020-10-07 Idex Asa Biometric sensing
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8411909B1 (en) 2012-06-26 2013-04-02 Google Inc. Facial recognition
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US9032510B2 (en) * 2012-09-11 2015-05-12 Sony Corporation Gesture- and expression-based authentication
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
US20160065945A1 (en) * 2013-04-12 2016-03-03 The Trustees Of Columbia University In The City Of New York Systems, methods, and media for generating structured light
WO2015036994A1 (en) * 2013-09-16 2015-03-19 Technion Research & Development Foundation Limited 3d reconstruction from photometric stereo with shadows
WO2015142445A1 (en) * 2014-03-21 2015-09-24 St. Jude Medical, Cardiology Division, Inc. Methods and systems for generating a multi-dimensional surface model of a geometric structure
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
CN110716381B (zh) * 2014-05-06 2021-10-15 宁波舜宇光电信息有限公司 转光三维成像装置和投射装置及其应用
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
CN104143080B (zh) * 2014-05-21 2017-06-23 深圳市唯特视科技有限公司 基于三维点云的三维人脸识别装置及方法
DE102014210051A1 (de) * 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zur Bestimmung einer Oberflächentopographie eines Körpers
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9460493B2 (en) 2014-06-14 2016-10-04 Microsoft Technology Licensing, Llc Automatic video quality enhancement with temporal smoothing and user override
US9373179B2 (en) 2014-06-23 2016-06-21 Microsoft Technology Licensing, Llc Saliency-preserving distinctive low-footprint photograph aging effect
CN104474710B (zh) * 2014-12-09 2015-09-02 山东大学 基于Kinect网络的大规模场景群体用户跟踪系统与方法
US10257495B1 (en) * 2014-12-31 2019-04-09 Morphotrust Usa, Llc Three dimensional composite images of digital identifications
US10445391B2 (en) 2015-03-27 2019-10-15 Jostens, Inc. Yearbook publishing system
US20180165510A1 (en) * 2015-05-29 2018-06-14 Indiana University Research And Technology Corporation Method and apparatus for 3d facial recognition
US9600715B2 (en) * 2015-06-26 2017-03-21 Intel Corporation Emotion detection system
US9959455B2 (en) 2016-06-30 2018-05-01 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition using three dimensions
JP6789762B2 (ja) * 2016-11-02 2020-11-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10395382B2 (en) * 2016-12-30 2019-08-27 Biosense Webster (Israel) Ltd. Visualization of distances on an electroanatomical map
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
EP3571627A2 (en) 2017-01-19 2019-11-27 Mindmaze Holding S.A. Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
EP3568804A2 (en) 2017-02-07 2019-11-20 Mindmaze Holding S.A. Systems, methods and apparatuses for stereo vision and tracking
US10467768B2 (en) * 2017-04-07 2019-11-05 Intel Corporation Optical flow estimation using 4-dimensional cost volume processing
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
CN108549873B (zh) * 2018-04-19 2019-12-24 北京华捷艾米科技有限公司 三维人脸识别方法和三维人脸识别系统
WO2020005204A1 (en) * 2018-06-25 2020-01-02 Hewlett-Packard Development Company, L.P. Three-dimensional registration procedures
US11100204B2 (en) * 2018-07-19 2021-08-24 Motorola Mobility Llc Methods and devices for granting increasing operational access with increasing authentication factors
RU2696932C1 (ru) * 2018-10-22 2019-08-07 Акционерное общество "Обнинское научно-производственное предприятие "Технология" им. А.Г. Ромашина" Способ определения местоположения рабочей поверхности изделия относительно лазерного проектора
KR102157793B1 (ko) * 2019-05-31 2020-09-18 주식회사 모르페우스 3차원 모델을 재구성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US11688030B2 (en) 2019-06-12 2023-06-27 Frito-Lay North America, Inc. Shading topography imaging for robotic unloading
CN110532746B (zh) * 2019-07-24 2021-07-23 创新先进技术有限公司 人脸校验方法、装置、服务器及可读存储介质
US10853631B2 (en) 2019-07-24 2020-12-01 Advanced New Technologies Co., Ltd. Face verification method and apparatus, server and readable storage medium
US11170203B2 (en) * 2019-11-27 2021-11-09 National Central University Training data generation method for human facial recognition and data generation apparatus
KR102160128B1 (ko) 2020-02-04 2020-09-25 주식회사 더우리 인공지능 기반 스마트 앨범 생성 방법 및 장치
KR20240020812A (ko) * 2022-08-09 2024-02-16 한양대학교 산학협력단 설명 가능한 3d 형상 학습을 위한 컨볼루션 신경망 구조, 및 이를 이용한 3d 형상 학습을 위한 방법 및 시스템

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5181259A (en) * 1990-09-25 1993-01-19 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration General method of pattern classification using the two domain theory
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
JP3735893B2 (ja) * 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
JP3529954B2 (ja) * 1996-09-05 2004-05-24 株式会社資生堂 顔だち分類法及び顔だちマップ
US6028960A (en) * 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US6571227B1 (en) * 1996-11-04 2003-05-27 3-Dimensional Pharmaceuticals, Inc. Method, system and computer program product for non-linear mapping of multi-dimensional data
AU732397B2 (en) 1996-11-04 2001-04-26 3-Dimensional Pharmaceuticals, Inc. System, method and computer program product for identifying chemical compounds having desired properties
US6031539A (en) * 1997-03-10 2000-02-29 Digital Equipment Corporation Facial image method and apparatus for semi-automatically mapping a face on to a wireframe topology
US6016148A (en) * 1997-06-06 2000-01-18 Digital Equipment Corporation Automated mapping of facial images to animation wireframes topologies
US6047078A (en) * 1997-10-03 2000-04-04 Digital Equipment Corporation Method for extracting a three-dimensional model using appearance-based constrained structure from motion
AU1613599A (en) * 1997-12-01 1999-06-16 Arsev H. Eraslan Three-dimensional face identification system
CA2227361A1 (en) * 1998-01-19 1999-07-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of expressions
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6539126B1 (en) * 1998-04-17 2003-03-25 Equinox Corporation Visualization of local contrast for n-dimensional image data
US6081739A (en) * 1998-05-21 2000-06-27 Lemchen; Marc S. Scanning device or methodology to produce an image incorporating correlated superficial, three dimensional surface and x-ray images and measurements of an object
US6250928B1 (en) * 1998-06-22 2001-06-26 Massachusetts Institute Of Technology Talking facial display method and apparatus
US6081577A (en) * 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
FR2781907B1 (fr) * 1998-08-03 2000-09-29 France Telecom Procede de codage d'un maillage source tenant compte des discontinuites, et applications correspondantes
US6384826B1 (en) * 1998-08-14 2002-05-07 Xerox Corporation Method, apparatus and computer medium for surface reconstruction by Voronoi filtering
US6285805B1 (en) * 1999-01-25 2001-09-04 International Business Machines Corp. System and method for finding the distance from a moving query point to the closest point on one or more convex or non-convex shapes
DE69934478T2 (de) 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
US6295785B1 (en) * 1999-03-22 2001-10-02 Robert M. Herrmann Geodesic dome and method of constructing same
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
AU2001247627A1 (en) * 2000-03-22 2001-10-03 3-Dimensional Pharmaceuticals, Inc. System, method, and computer program product for representing object relationships in a multidimensional space
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
US6731287B1 (en) * 2000-10-12 2004-05-04 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A.S. Method for animating a 3-D model of a face
GB0117157D0 (en) * 2001-07-16 2001-09-05 Imec Inter Uni Micro Electr Extraction, hierarchical representation and flexible compression of surface meshes derived from 3D data
US6628280B2 (en) * 2001-03-16 2003-09-30 Mitsubishi Electric Research Laboratories, Inc. Method for selectively regenerating an adaptively sampled distance field
US7324668B2 (en) * 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
KR20040097200A (ko) * 2002-03-26 2004-11-17 김소운 3차원 안경 시뮬레이션 시스템 및 방법
AUPS140502A0 (en) * 2002-03-27 2002-05-09 Seeing Machines Pty Ltd Method for automatic detection of facial features
US7379602B2 (en) * 2002-07-29 2008-05-27 Honda Giken Kogyo Kabushiki Kaisha Extended Isomap using Fisher Linear Discriminant and Kernel Fisher Linear Discriminant
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
US6947579B2 (en) 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US7421098B2 (en) 2002-10-07 2008-09-02 Technion Research & Development Foundation Ltd. Facial recognition and the open mouth problem
EP1559060A4 (en) 2002-11-06 2007-06-13 Geometric Informatics Inc ANALYSIS OF GEOMETRIC SURFACES BY CONFORMITY STRUCTURE
US7643685B2 (en) * 2003-03-06 2010-01-05 Animetrics Inc. Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20070052726A1 (en) * 2005-09-08 2007-03-08 David Wright Method and system for likeness reconstruction
WO2007069260A1 (en) * 2005-12-16 2007-06-21 Technion Research & Development Foundation Ltd. Method and apparatus for determining similarity between surfaces

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011515736A (ja) * 2008-02-27 2011-05-19 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
JP2014517380A (ja) * 2011-04-28 2014-07-17 コーニンクレッカ フィリップス エヌ ヴェ 顔の位置検出
US9582706B2 (en) 2011-04-28 2017-02-28 Koninklijke Philips N.V. Face location detection
US9740914B2 (en) 2011-04-28 2017-08-22 Koninklijke Philips N.V. Face location detection
JP2015130972A (ja) * 2014-01-10 2015-07-23 キヤノン株式会社 処理装置、処理方法、およびプログラム
KR20180014676A (ko) * 2016-08-01 2018-02-09 코그넥스코오포레이션 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법
KR102011564B1 (ko) 2016-08-01 2019-08-16 코그넥스코오포레이션 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법
JP2018110852A (ja) * 2016-12-30 2018-07-19 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 電気解剖学的マップ上での点の選択
JP7071117B2 (ja) 2016-12-30 2022-05-18 バイオセンス・ウエブスター・(イスラエル)・リミテッド 電気解剖学的マップ上での点の選択

Also Published As

Publication number Publication date
ATE454675T1 (de) 2010-01-15
US20080292147A1 (en) 2008-11-27
EP1550082A4 (en) 2007-10-10
AU2003272048A1 (en) 2004-04-23
DE60330880D1 (de) 2010-02-25
KR20050059247A (ko) 2005-06-17
KR101007276B1 (ko) 2011-01-13
JP4445864B2 (ja) 2010-04-07
EP1550082B1 (en) 2010-01-06
WO2004032061A2 (en) 2004-04-15
US7623687B2 (en) 2009-11-24
US6947579B2 (en) 2005-09-20
US20060251298A1 (en) 2006-11-09
EP1550082A2 (en) 2005-07-06
US8155400B2 (en) 2012-04-10
US20040076313A1 (en) 2004-04-22
WO2004032061A3 (en) 2004-05-06

Similar Documents

Publication Publication Date Title
JP4445864B2 (ja) 三次元顔認識
Bronstein et al. Three-dimensional face recognition
US7426292B2 (en) Method for determining optimal viewpoints for 3D face modeling and face recognition
Douros et al. Three-dimensional surface curvature estimation using quadric surface patches
Passalis et al. Using facial symmetry to handle pose variations in real-world 3D face recognition
WO2017219391A1 (zh) 一种基于三维数据的人脸识别系统
Kakadiaris et al. Three-dimensional face recognition in the presence of facial expressions: An annotated deformable model approach
US20160253807A1 (en) Method and System for Determining 3D Object Poses and Landmark Points using Surface Patches
JP4780198B2 (ja) 認証システム及び認証方法
EP1412917B1 (en) Apparatus and method for generating a three-dimensional representation from a two-dimensional image
US20140043329A1 (en) Method of augmented makeover with 3d face modeling and landmark alignment
Castillo et al. Using stereo matching with general epipolar geometry for 2d face recognition across pose
WO2018075053A1 (en) Object pose based on matching 2.5d depth information to 3d information
Bronstein et al. Face recognition from facial surface metric
Bondi et al. Reconstructing high-resolution face models from kinect depth sequences
Ferková et al. Age and gender-based human face reconstruction from single frontal image
JP2008123216A (ja) 認証システム及び認証方法
Stylianou et al. Image based 3d face reconstruction: a survey
Yin et al. Virtual reconstruction method of regional 3D image based on visual transmission effect
Rani et al. Construction and reconstruction of 3D facial and wireframe model using syntactic pattern recognition
Bronstein et al. 3D face recognition without facial surface reconstruction
Li et al. Example-based 3D face reconstruction from uncalibrated frontal and profile images
Ramadan et al. 3D Face compression and recognition using spherical wavelet parametrization
Aleksandrova et al. Approach for Creating a 3D Model of a Face from its 2D Image
US20230401774A1 (en) Full-body integrated motion capture method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091005

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091013

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091030

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R150 Certificate of patent or registration of utility model

Ref document number: 4445864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term