JP4466951B2 - 立体結合顔形状の位置合わせ - Google Patents

立体結合顔形状の位置合わせ Download PDF

Info

Publication number
JP4466951B2
JP4466951B2 JP2004190392A JP2004190392A JP4466951B2 JP 4466951 B2 JP4466951 B2 JP 4466951B2 JP 2004190392 A JP2004190392 A JP 2004190392A JP 2004190392 A JP2004190392 A JP 2004190392A JP 4466951 B2 JP4466951 B2 JP 4466951B2
Authority
JP
Japan
Prior art keywords
face
features
model
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004190392A
Other languages
English (en)
Other versions
JP2005025748A (ja
JP2005025748A5 (ja
Inventor
リー グ
リ ジキン
ホン−ジャン ツァン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005025748A publication Critical patent/JP2005025748A/ja
Publication of JP2005025748A5 publication Critical patent/JP2005025748A5/ja
Application granted granted Critical
Publication of JP4466951B2 publication Critical patent/JP4466951B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Golf Clubs (AREA)

Description

本発明は、顔認識に関し、より詳細には、1つの顔の複数の画像を使用して顔の特徴(facial feature)に点を配置することによって顔の特徴を認識することに関する。
3次元物体を2次元で表現することができる。実際、3次元物体を2次元のビューを使用して表現することは、物体のモデリングおよび合成を行う上で有利である。そのような2次元表現においては、物体の3次元の特徴を明示的に再生する必要がなく、このことによって、3次元ベースの方法に内在する難点が回避される。むしろ、ビューベースモデルを使用し、2次元ビューを複数用いて物体を表現することは、常套手段となっている。2つ以上の2次元ビューを用いて物体を表現するとき、通常は各2次元ビューの間で画素毎の対応マップが必要とされる。あるいは、物体上の1組の少数の特徴点または特徴部のエッジ間のまばらな対応マップを、各2次元ビューの間で使用することもできる。物体のテクスチャから物体の形状を分離するために、対応マップを計算し、適用することができる。その結果、物体の形状と物体のテクスチャを共に、ある特定の観点から、線形部分空間内でモデル化することができる。
2つ以上の2次元ビューを用いて物体を表現するとき、物体の特徴を表わす点(特徴点)を確立すると有利な場合がある。複数の2次元ビューの間の対応に基づく特徴点は、光の強度と色の変化を扱う際によりロバスト性があり、物体を稠密に表現した場合より計算が少なくてすむので、いくつかの適用例で有利となる。したがって、物体の画像クラスを正確にモデル化するため、2つの問題に対処し、これを解決することができる。最初の問題は、2次元ビューのトレーニングセット(training set)を使用して、物体の特徴上の特徴点を探し出す問題である。物体の特徴上の特徴点が探し出された後に続く第2の問題は、2以上の組の特徴点間の、基礎となる対応を対応する数の2次元ビューから確立する問題である。
複数の2次元ビューを用いて複雑で柔軟な物体中の特徴を突き止めるとき、難度はさらに上昇する。物体自体に関する事前知識を使用することで、これらの困難に対処することができる。例えば、物体の変形可能モデルは、そのような事前知識の一例である。変形可能モデルは、物体上の特徴の位置について制約条件を提供することができる。物体に関する画像データから導き出せる、これらの制約条件を使用して、物体の区分化または物体上の特徴の検出といった問題に対処することができる。具体的には、クーツ他(Cootes et al.)によって提案されたアクティブシェイプモデル(ASM)(例えば、非特許文献1参照)は、モデルが導出されたトレーニングセットから学習された方法によってのみ、物体のモデルのインスタンスを変形することができる利点を提供した。すなわち、モデルは、物体の区分化または特徴の検出において、かなりの変動性に対応することができるが、モデルは依然、そのモデルが表わす物体のクラスに限定されている。ASMは、主成分分析(PCA)技法を利用し、物体の2次元形状変化および物体の局所グレイレベル構造によって、物体をモデル化する。具体的には、ASMは、物体の2次元画像に問い合わせ、および物体上の各特徴をそれぞれ表わす点(特徴点)を用いて物体上の特徴の形状を近似することなどを含む処理である。
同一の物体の2つ以上の異なる2次元ビューが与えられた場合、ASMを利用することによって、各ビューの物体上の特徴を物体のモデルにマッチさせることができる。各ビューについてモデルマッチング(model matching)を実行した後、異なるビューの各々にわたる関連性によってなど、異なるビューにおける物体の特徴の個々の特徴点間の対応を見つけるのが望ましい。しかし、物体上の各特徴の検出された特徴点は、異なるビューにわたって幾何的に一貫性をもたない場合がある。この非一貫性は、ASMが、異なるビューの対応ではなく、単一のビューだけを考慮していることによる。モデルと異なるビューの各々とのマッチングには、多視点幾何(multiview geometry)を使用すると有利である。これが成し遂げられる間、物体上の各特徴のすべての主要特徴点は、依然として各2次元ビュー中に見えている必要がある。
ASMを使用するための技法の1つは、1つの顔を異なる視点から見たビューの1組のトレーニング例の使用を含む。これらの1つの顔のビューから、顔上の特徴の1組の特徴点に、手動で標識付けを行うことができる。この手動の標識付けは、顔を、異なる顔の特徴とその顔の特徴を構成する個々の点に変形することを意味する。例えば、これらの顔の特徴は、鼻、目、および口を含むことができる。特徴点は、顔上の特徴を特徴付ける点である。ASMは、顔の変形を表わす1組のトレーニングデータを使用して、異なる顔の特徴を異なる顔のビューを使用することにより分析する。しかし、この従来のASM技法は、分析対象の顔のビューの中に顔の特徴を探し出す際の、正確性に関して難点がある。さらに、従来のASM技法は、1組のトレーニングデータ中の顔が変形されたやり方で、分析対象の顔を変形できるに過ぎない。内在する不正確性を克服するための部分的解決法は、より大規模なトレーニングデータベースを使用することである。そのような解決法は、顔の異なるビューについての局所グレイレベルモデルフィッティング(local grey−level model fitting)を考慮していないので、部分的なものでしかない。局所グレイレベルモデルフィッティングは、必ずしも顔の特徴の実際のエッジとは限らない、光度が最も強いエッジの方に顔の特徴を移動させるように、データを解釈する傾向があり、そのため、さらなる不正確性を生じさせる。さらに、より大規模なデータベースを使用すると、追加データには、許容可能な顔の特徴の形状を分析対象の顔にとって不正確な範囲にまで広げる傾向があるため、正確性がさらに低下する場合がある。
上記の問題に加えて、ASMは、同一の顔の僅かに異なる2つのビューの中で、同一の顔の特徴を見つける際に一貫性がない。ASMは、別の物体の僅かに異なる2つのビューを探索した場合に、トレーニング物体についてトレーニングデータ中で識別された特徴が同じ特徴を生み出すことを、必ずしも保証するわけではない。この能力の欠如は、異なる2次元ビューにおける物体の回転の結果である物体を照らす照明の変化に、または異なる初期パラメータに原因を見出すことができる。2つのマイナスの結果が、この環境で従来のASMを使用した場合に発生し得る。1つの結果は、従来のASMモデルが、物体上の特徴を誤って識別すること、または物体上の特徴の特徴点を不正確に探し出すことである。いずれの場合でも、従来のASMを用いた場合、同一の物体の異なる2次元ビューが、異なる2次元ビューの間でマッチしない特徴を生み出す。その結果、従来のASMを用いた場合、異なるビューの識別された特徴の間の対応は不正確となる。
T. F. Cootes, 他2名, "Active shape models - their training and their applications", Computer Vision and Image Understanding, 第61巻, 第1号, p.38-59, 1995年1月 Z. Zhang, "Determining the epipolar geometry and its uncertainty: a review", The International Journal of Computer Vision, 第27巻, 第2号, p.161-195, 1998年 S. Z. Li, 他3名, "Kernel Machine Based Learning for Multi-View Face Detection and Pose Estimation" In Proceedings of 8th IEEE International Conference on Computer Vision, (カナダ バンクーバ), 2001年7月9日 A.P. Pentland, 他2名, 天iew-Based and Modular Eigenspaces for Face Recognition In the Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, p.84-91, 1994年
同一の物体の異なるビューの中に同一の特徴を正確かつ一貫して識別する技法を開発することは、当技術分野における進展となるであろう。
本発明の一実施形態は、目の隅や鼻の先など顔の特徴について点を配置することによって、顔の特徴を識別する。これを行うために、1つの顔の複数の2次元ビューから成るトレーニングセットを利用して、1組のトレーニングデータを作成する。この1組のトレーニングデータは、1つの顔の2つの異なる2次元ビューと一緒に、数学的モデルの中で使用される。数学的モデルを使用して、顔の内側および外側の特徴を、2つの異なる2次元ビュー上で識別し、その結果、顔の2つの異なる2次元ビューの各々について顔の特徴を識別するための立体結合メカニズム(stereo−coupling mechanism)を提供する。数学的モデルは、基本行列(fundamental matrix)に符号化されたエピポーラ幾何(epipolar geometry)を使用して、2つの異なるビューの各々において顔の特徴が配置される領域を制限する。数学的モデルは、同一の顔の2つの異なるビューの各々における各顔の特徴の点の間の幾何的対応をそれぞれに見つける。
本発明の別の実施形態は、顔モデルの顔の外側および内側の特徴を、第1の顔画像の第1のモデルの顔の外側および内側の特徴および第2の顔画像の第2のモデルの顔の外側および内側の特徴とマッチさせる。第1および第2のモデルのマッチした顔の外側および内側の特徴の各々を、第1および第2のモデルについて、対応するエピポーラ拘束(epipolar constraint)を用いて調整する。第1および第2の顔画像は、実質的に同じカメラ方向でそれぞれ捉えた同一の顔の画像である。その他の実施形態では、画像は、ヨー角(yaw)が異なる顔の向きの範囲を有する。
本発明のまた別の実施形態では、第1および第2の顔画像について、それぞれ第1および第2のモデルの顔モデルを使用して、初期化が実行される。第1および第2のモデルは各々、複数の点によって定義される顔の外側および内側の特徴を有する。第1および第2のモデルについて、基本行列を推定する。第1および第2のモデルの各々について顔の内側の特徴の点が、各点に対する局所テクスチャをそれぞれ用いて、更新される。次に、第1および第2のモデルの顔の内側の特徴がそれぞれ、更新される。第1および第2のモデルの顔の内側の特徴の各点は、基本行列と対応するエピポーラ拘束を用いて、更新される。次に、第1および第2のモデルの各々について顔の外側の特徴が、更新される。第1のモデルが顔モデルの所定の許容値内に収束した場合、第1のモデルの顔の内側および外側の特徴の表現が出力される。第2のモデルが顔モデルの所定の許容値内に収束した場合、第2のモデルの顔の内側および外側の特徴の表現が出力される。
以下の詳細な説明を添付の図面と併せて参照することにより、本発明の実施形態のより完全な理解が得られるであろう。
本発明は、顔のモデリングおよび顔の特徴の識別に関する。本発明の実施形態は、顔の形状の分析にエピポーラ幾何を利用して、鼻、目、眉、口などの顔の特徴を決定する。この詳細な説明では、読者がエピポーラ幾何を理解していることを前提としている。
基本行列の推定
図1a〜図1bには、2つの対象画像が示されており、2つの対象画像は、それらの間の基本行列Eを推定することによりキャリブレートされる。1対の画像のための基本行列Eを計算する公式の一例が、チャン他(Zhang et al.)によって提供されている(例えば、非特許文献2参照)。2つの画像は、頭部を正面に向け、静止カメラで撮影されたものであり、2つのビューの間には、ヨー方向(yaw direction)の動きが見られる。頭部の回転に伴い照明が変化するので、物理的に同一の点の色が、2つの画像で相違して見える。したがって、顔の特徴の識別は、光の流れに基づく方法よりも輝度に対してロバスト性があるので、顔の特徴を識別するほうが有利である。基本行列Eの推定には、4つの異なるステップ、すなわち、1)2つの異なる画像の間の差を決定することにより、顔の位置を概算するステップと、2)画像中の各顔の特徴の隅を検出するステップと、3)2つの異なる画像の相関により、各顔の特徴の隅をマッチングするステップと、4)誤マッチを排除し、最小平均2乗(least median squares)によって基本行列を推定するステップとが含まれ得る。図1a〜図1bには、1対の顔画像と、上述の技法によって定められた、顔の特徴について隅がマッチする組が示されている。しかし、2つの異なる画像の間のより正確な顔の特徴の相関関係のために、顔モデルが必要とされる。図2に示され、以下で説明される、そのような顔モデルは、鼻、目、眉、口などの顔の特徴の表現となる。
顔形状モデルの分解
顔形状のトレーニングセットT={S|i∈0〜N}を既定することができる。ただし、形状ベクトルは、S=(<x,y>,<x,y>,...,<x,y>,)∈R2K、K=83で表わされる。形状ベクトルSは、顔の様々な特徴を構成する点(特徴点)を表わす。図2に見られるように、顔は、顔の内側の特徴(目、鼻、および口)に分解されており、その各々は、複数の点を結んだ線によって輪郭を描かれている。図2には、これら3つの異なる顔の内側の特徴を構成する63個の点が示されている。顔はまた、顔の外側の特徴(1対の眉、ならびに顎、顎先、および頬から成る輪郭)に分解されており、その各々は、複数の点を結んだ線によって輪郭を描かれている。図2には、これら2つの異なる顔の外側の特徴を構成する19個の点が示されている。したがって、図2の最下図に示す分解された顔の特徴の合成から分かるように、合計83個の点が、5つの異なる顔の特徴を構成している。
輪郭上の点は、顔の領域を背景から区分する助けとなり得るので、有用である。しかし、ヨー方向の頭部の回転によって生じるセルフオクルージョン(self occlusion)のため、輪郭上の点は、これらの点がエピポーラ拘束(epipolar constraint)を満たさないという点で、同一の顔の2つの異なるビューにおいて正確に結び付けるのが難しい。この困難を克服するために、分解された顔モデルが利用される。図2に示すように、形状ベクトルsは、内側ベクトルSinと外側ベクトルSoutの、2つの部分に分割される。Sinは、3つの顔の内側の特徴を構成する64個の点を表わし、外側ベクトルSoutは、眉と顔の輪郭を定義する19個の点を表わす。もちろん、異なる数の点を選択して、各顔の特徴を表現することもできる。顎、顎先、および頬から成る輪郭を分離する別の理由は、トレーニング画像で提示される背景が乱れている場合、それらの局所的グレイレベルモデル(local grey level model)が、顔の内側の特徴を構成する点ほどには安定でないという事実によるものである。眉の外周は、その他の顔の内側の特徴よりも検出が難しく、異なるヘアスタイルなど、他の要因からの影響をより受けやすいことを考慮して、眉も、Sout形状ベクトルに割り当てられる。
反復ASM手順において、すべての形状ベクトル(Sin,Sout)を平均形状
Figure 0004466951
の接空間(tangent space)に配列した後、1組の正規化形状(normalized shape)ベクトル
Figure 0004466951
が得られる。ただし、Tは、回転θ、スケーリングS、(X,Y)分の移動を実行するユークリッド変換を表わす。そのような利用可能な反復ASM手順の一例が、先に説明した、クーツ他によって提供されている。
以下の分解方式では、整列された各顔
Figure 0004466951
は、2つのベクトル
Figure 0004466951
に分割される。2つの低次元形状空間UおよびUinが、ASMの主成分分析(PCA)技法を用いて、
Figure 0004466951
として計算される。ただし、Uは、
Figure 0004466951
の変化(variation)のk個の主要なモードから構成される行列であり、Uinは、
Figure 0004466951
から学習された行列である。トレーニングセット中の形状iの顔の特徴の各々を構成する各点jについて、jを中心とする輪郭のグレイレベルgijが抽出される。gijの導出ベクトルdijは、
Figure 0004466951
として計算され、正規化される。ただし、kは、輪郭に沿った点のインデクスである。ここでもPCAを用いて、ベクトル
Figure 0004466951
の変化をモデル化する。本明細書で利用される、ASMのPCAの一例が、先に説明した、クーツ他によって提供されている。
立体結合モデル探索
同一の顔の2つのビューにおける対応する顔の特徴のマッチングを行う立体結合モデルは、両画像における顔の位置および平均形状ベクトルの初期推定を行うことから始まる。ASMを2つのビューにそれぞれ適用し、局所テクスチャ統計(例えば、各点近傍の測光データ)に従って、各顔の特徴の各点を更新する。これを行うために、モデル境界に対して垂直な方向に沿って、点を移動させる。次に、マッチの質が評価され、このことから、各点の新しい位置を提示することができる。最良のマッチはしばしば、測光データの大きさに基づいて強いエッジ上に見つかる。
次のステップは、先行の形状分布およびエピポーラ拘束を共に満足する、最も妥当と思われる形状を見出すことに関係している。モデルフィッティング(model fitting)は、2つの制約条件をもつ損失関数L(c)を最小化する、2つの画像の形状モデルの最適パラメータセットcを見出すこととして、定式化することができる。制約条件、すなわち
Figure 0004466951
は、制約条件
Figure 0004466951
から制約を受ける。ただし、d(x,y)は、点xと点yの間のユークリッド距離であり、Sin1およびSin2は、局所テクスチャに基づく更新の後の、観測された特徴点である。
Figure 0004466951
Figure 0004466951
および
Figure 0004466951
は、モデル実現値を表わす。
Figure 0004466951
パラメータbin1およびbin2は、望ましい正確な顔形状を生成するために、第2の条件を満足すべきである。
L(c)を利用して、モデルのインスタンスと観測された特徴点の間の差を評価する。あるいは、エピポーラ幾何の観点からは、L(c)は、正しい対応点を見つけるための尺度と見なすこともできる。探索手順の間、形状Sin1、Sin2の間の標準的な観測されたマッチング
Figure 0004466951
は、ノイズが多くなり得るので、正しいマッチングを回復するのが望ましい。L(c)は、オリジナルの特徴点μ、μ’と正しい対応点
Figure 0004466951
の間の距離を表わす。ただし、
Figure 0004466951
は、形状インスタンス
Figure 0004466951
中の点である。点
Figure 0004466951
に関してμ、μ’はガウス誤差分布を示すと仮定され、これにより、2つの異なるビュー上の点の間の正確な対応を表わす可能性の最も高い値について、損失関数L(c)が最小化される。
2つの異なるビュー上の点の間の正確な対応を探し出すための手順には、形状モデルの分解、およびエピポーラ拘束(式3)と先行形状の制約(式4)とを組み合わせた制約条件が関係する。一般に、そのような手順は、顔検出の結果で、同一の顔の2つの異なるビューに関する形状モデルを初期化することから始まる。本明細書で使用可能な、2つの異なるビューに関する形状モデルの初期化の一例が、リー他(Li et al.)によって提供されている(例えば、非特許文献3参照)。異なるビューの形状モデルが初期化された後、各顔の特徴の点が、各点近傍のテクスチャ(例えば、測光データ)を用いて、それぞれ独立に更新される。次に、内側の顔画像が更新される。これを行うため、内側の形状ベクトルSin1、Sin2について、初期推定値が与えられる。この初期推定値は、1つの顔の2つの異なるビューについての画像データとマッチする。パラメータTin1、Tin2、bin1、bin2について、最適化が探し出され、先行形状の制約に従って、
Figure 0004466951
の範囲内で、bin1、bin2の切り捨てが行われる。切り捨ての後、エピポーラ拘束に従って、顔の内側の特徴(鼻、目、および口)の点に対して更新が行われる。
2つの異なるビューに関する顔の内側の特徴の点は、エピポーラ拘束をまだ満足していないことがあるので、マッチング
Figure 0004466951
から正しい対応
Figure 0004466951
を見つけるために、非線形最適化法が導入される。図4a〜図4bのエピポーラ幾何の図に示されるように、lμは、同じ顔の第2のビューまたは画像中の特徴点μのエピポーラ線である。lは、μ’からlμに垂直に下ろされ、点Mでlμと交わる。eから出てl上の点νを通過する線lνも、エピポーラ線である。したがって、点νは、第2の画像におけるエピポーラ線の束を定義する。束は、νとμ’の間の符号付き距離であるパラメータλによってパラメータ化される。パラメータμ’は、
Figure 0004466951
を得るために、lνに射影される。パラメータ
Figure 0004466951
は、同じ顔の第1のビューまたは画像中の
Figure 0004466951
のエピポーラ線である。パラメータμは、
Figure 0004466951
を得るために、
Figure 0004466951
に射影される。最適化されたλoptを見つけて、(2)のようにL(c)を最小化するために、古典的なリーベンバーグ−マーカット最適化を利用することができ、λの初期値は、
Figure 0004466951
に設定される。λの最適値を達成するために、数回の反復処理を行うことができる。最後に、すべての顔の特徴のすべての点S、Sが、第1ステップで行われたように更新される。
一般に、本発明の一実施形態では、顔形状は、内部エネルギー関数を最小化するように、上述のステップによって近似される。エピポーラ拘束は、同一の顔の2つの異なる2次元ビューの各々に関する顔の特徴の点の間で最良の対応を見つけることを目的とした、特定のエネルギー項を表わす。
図5a〜5bから図8a〜8bには、エピポーラ幾何を用いるステレオ結合メカニズムの一実施形態の、それぞれの繰り返しの結果が示されている。図3a〜3bは、同一の顔の2つの初期図を表わす。図8a〜8bの最後の図に見られるように、ステレオ結合モデルは、2つの異なるビューにおいて各顔の特徴を正確に探し出し、それぞれのビューにおける顔の特徴の収束は類似している。顔の内側の特徴(目、鼻、および口)に課せられた幾何制約が2つの異なるビューのモデルの間の対応マッピングを調節するので、この収束は可能となる。
図9の手順900には、顔モデルを用いて同一の顔の2つの異なるビューに関して実行されるステップ1からステップ8を有する、本発明の一実施形態が示されている。2つのビューは、顔に対して同じ相対カメラ方向で撮影されており、2つの異なるビューを比べると、顔がヨー方向に回転している。2つのビューは同時に処理される。ステップ2からステップ7は、手順900の中で、繰り返し行われる。
手順900への入力は、2つの顔画像であり、その一例が、図3a〜3bで提供されている。この入力は、第1および第2の顔(例えば、同一の顔の2つの異なるビュー)について、手順900のステップ1におけるブロック902〜904でそれぞれ取得される。手順900のステップ1の後、ステップ2に処理は移り、ブロック908〜910で、第1および第2の顔に関する形状モデルを初期化することによって、2つの画像の各々において各顔上の各顔の特徴の隅の点が検出される。ブロック908〜910は、同時に実行することができる。顔の内側の特徴に関して、口に関する隅の点は、複数の口の隅を含む。目の各々に関する隅の点は、複数の目の隅を含み、鼻に関する隅の点は、鼻の先を含む。
各顔の特徴の隅の点が検出された後のブロック908〜910における第1および第2の顔に関する形状モデルの初期化は、2組の隅の点の間の対応の確立も含まれる。別の言い方をすれば、ブロック908〜910は、第1および第2の顔画像について、それぞれ第1および第2のモデルの初期化を要求する。この初期化は顔の外側および内側の特徴を有する顔モデルを使用する。各顔の特徴は、複数の点によって定義され、第1および第2のモデルは各々顔の外側および内側の特徴を有している。例えば、図5a〜5bには、手順900が適用される2つの異なるビューの一例が提供されている。図2には、顔の内側および外側の特徴を有する顔モデルの一例が提供されており、顔の内側および外側の特徴は各々、複数の点によって定義される。図2の顔の内側の特徴は、鼻、口、および1対の目である。図2の顔の外側の特徴は、顔の弓形の底端部、および1対の眉である。図3a〜3bの初期入力から分かるように、第1および第2の顔画像は、実質的に同じ相対カメラ方向で補足された同じ顔である。第1および第2の顔画像におけるそれぞれの顔の向きは、ピッチに関して実質的に同じであり、ロールに関しても実質的に同じであり、ヨーに関しては約3度から約10度(10°)の範囲で異なっている。
2つの異なるビューにおける顔の特徴の隅の点の間の対応が確立されると、ブロック906で、第1および第2の顔(モデル)に関する基本行列「E」の推定が行われる。手順900のブロック906で使用可能な、基本行列「E」を推定するための技法の一例が、先に説明した、ペントランド他によって提供されている。
手順900のステップ3で、第1および第2のモデル(例えば、第1および第2の顔)の各顔の内側の特徴の複数の点に対する更新が、各点それぞれの局所テクスチャを用いて行われる。この更新は、手順900のブロック912〜914で行われ、各点の局所テクスチャには、その点の、またはその点の近傍の測光データが含まれる。ステップ4のブロック916〜918で、第1および第2のモデルの各顔の内側の特徴に対する更新が、ステップ3での点の更新の結果を用いて行われる。
ステップ1〜4は、それぞれが同一の顔の異なるビューを表わす2つの異なるモデルを更新するように機能する。ステップ5のブロック920では、ステップ1〜4での1対の動作異なり、一元化動作が実行される。ブロック920では、第1および第2のモデルの各顔の内側の特徴の複数の点を更新するために、基本行列とそれに対応するエピポーラ拘束を使用する。別の言い方をすれば、ブロック920で実行される動作は、上記の式(3)と式(4)によって数学的に表現される2つの制約条件を用いて、更新された第1および第2のモデルをより精緻なものにする。
ステップ6では、再び1対の動作が、ブロック922〜924で実行され、第1および第2のモデルの各顔の外側の特徴に対する更新が行われる。ステップ7では、1対の問い合わせが実行される。この問い合わせは、第1および第2のモデル毎に、それぞれブロック926および928で実行される。ブロック926では、第1のモデルが顔モデルの所定の許容値内に収束している場合、第1の顔モデルの顔の内側および外側の特徴の表現が出力される。収束していない場合は、第1のモデルが顔モデルの所定の許容値内に収束するまで、ステップ3〜7が繰り返される。同様に、ブロック928では、第2のモデルが顔モデルの所定の許容値内に収束している場合、第2の顔モデルの顔の内側および外側の特徴の表現が出力される。収束していない場合は、第2のモデルが顔モデルの所定の許容値内に収束するまで、ステップ3〜7が繰り返される。ステップ3〜7の繰り返しを4回行った結果の一例が、それぞれ図5a〜5bから図8a〜8bに示されている。
2つの異なるビューの間の顔の特徴の収束に続いて、手順900の結果を顔認識処理に利用することができる。例えば、データベースに保存された人の顔の中から、第1および第2の顔画像の少なくとも一方とマッチする顔を識別することができる。その際、マッチング処理では、第1および第2のモデルの一方または両方の、顔の内側および外側の特徴の出力表現を利用することができる。
コンピュータシステム
図10には、本明細書で説明した実施形態において使用できる、例示的なコンピュータシステムが示されている。コンピュータ1042は、1つまたは複数のプロセッサまたは処理ユニット1044、システムメモリ1046、およびシステムメモリ1046を含む様々なシステムコンポーネントをプロセッサ1044に結合するバス1048を含む。バス1042は、様々なバスアーキテクチャのいずれかを使用する、メモリバスまたはメモリコントローラ、周辺機器バス、アクセラレーテッドグラフィックスポート、およびプロセッサまたはローカルバスを含む、複数のタイプのバス構造の1つまたは複数を表わす。システムメモリには、読み取り専用メモリ(ROM)1050およびランダムアクセスメモリ(RAM)1052が含まれる。基本入出力システム(BIOS)1054は、起動時などにコンピュータ1042の構成要素間の情報伝送を助ける基本ルーチンを含み、ROM1050に格納される。
コンピュータ1042はさらに、ハードディスク(図示せず)に対して読み書きを行うためのハードディスクドライブ1056、着脱可能磁気ディスク1060に対して読み書きを行うための磁気ディスクドライブ1058、CD−ROM、または他の光媒体などの着脱可能光ディスク1064に対して読み書きを行うための光ディスクドライブ1062も含む。ハードディスクドライブ1056、磁気ディスクドライブ1058、および光ディスクドライブ1062は、SCSIインターフェース1066、またはその他の何らかの適切なインターフェースによって、バス1048に接続される。ドライブおよびそれに関連するコンピュータ可読媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、およびコンピュータ1042用のその他のデータの不揮発性記憶を提供する。本明細書で説明する例示的な環境では、ハードディスク、着脱可能磁気ディスク1060、および着脱可能光ディスク1064を使用するが、磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)などを始めとする、コンピュータによってアクセス可能なデータを保存することができる他のタイプのコンピュータ可読媒体も、例示的な動作環境内で使用することができることは、当業者には理解されよう。
複数のプログラムモジュールは、ハードディスク、磁気ディスク1060、光ディスク1064、ROM1050、またはRAM1052に格納することができ、プログラムモジュールには、オペレーティングシステム1070、(デザインアプリケーションなどの)1つまたは複数のアプリケーションプログラム1072、他のプログラムモジュール1074、およびプログラムデータ1076が含まれる。ユーザは、キーボード1078、およびポインティングデバイス1080などの入力装置を介して、コマンドおよび情報をコンピュータ1042に入力することができる。その他の入力装置(図示せず)には、マイクロホン、ジョイスティック、ゲームパッド、衛星放送用パラボラアンテナ、スキャナなどが含まれる。これらおよび他の入力装置は、バス1048に結合されたインターフェース1082を介して、処理ユニット1044に接続される。モニタ1084またはその他のタイプの表示装置も、ビデオアダプタ1086などのインターフェースを介して、バス1048に接続される。モニタに加え、パーソナルコンピュータは一般に、スピーカ、プリンタなどの他の周辺出力装置(図示せず)を含む。
コンピュータ1042は、リモートコンピュータ1088などの1つまたは複数のリモートコンピュータへの論理コネクションを用いて、ネットワーク環境で動作することができる。リモートコンピュータ1088は、別のパーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピア装置、または他の共通ネットワークノードとすることができ、一般にコンピュータ1042に関して上述した、構成要素の一部またはすべてを含むことができる。図10に示す論理コネクションには、ローカルエリアネットワーク(LAN)1090およびワイドエリアネットワーク(WAN)1092が含まれる。このようなネットワーク環境は、オフィス規模、企業規模のコンピュータネットワーク、イントラネット、およびインターネットで一般的である。コンピュータ1042は、LANネットワーク環境で使用される場合、ネットワークインターフェースまたはアダプタ1094を介してローカルネットワークに接続される。コンピュータ1042は一般に、WANネットワーク環境で使用される場合、インターネットなどのワイドエリアネットワーク1092を介して通信を確立するためのモデム1096または他の手段を含む。モデム1096は、内蔵でも外付けでもよく、シリアルポートインターフェース1068を介してバス1048に接続される。ネットワーク環境では、コンピュータ1042に関して示したプログラムモジュールまたはその部分は、リモートメモリ記憶装置に保存することができる。図示のネットワークコネクションは例示的なものであり、通信リンクを確立する他の手段も使用することができることは理解されよう。
一般に、コンピュータ1042のデータプロセッサは、コンピュータの様々なコンピュータ可読記憶媒体に異なる時に保存された命令によってプログラムされる。プログラムおよびオペレーティングシステムは一般に、例えば、フロッピディスクまたはCD−ROMで配布される。そこから、プログラムおよびオペレーティングシステムは、コンピュータの2次メモリにインストールまたはロードされる。実行時に、プログラムおよびオペレーティングシステムは、コンピュータの1次電子メモリに少なくとも部分的にロードされる。本明細書で説明したシステムは、上記およびその他の様々なタイプのコンピュータ可読記憶媒体を含み、そのような媒体は、マイクロプロセッサまたはその他のデータプロセッサと共に、説明したブロックを実施するための命令またはプログラムを含む。説明したシステムはまた、コンピュータ自体が本明細書で説明した方法および技法によってプログラムされたとき、そのコンピュータ自体を含むことができる。
説明のため、本明細書では、プログラム、およびオペレーティングシステムなどの他の実行可能プログラムコンポーネントを、離散的なブロックとして説明したが、そのようなプログラムおよびコンポーネントが、様々な時に、コンピュータの異なる記憶コンポーネントに存在し、コンピュータのデータプロセッサによって実行されることは理解されよう。
結論
本発明の実施形態によって、顔の特徴を表現し、目の隅や鼻の先などの、顔の特徴の中の点を探し出すことが可能になる。同一の顔の1対の異なるビューにおける顔の特徴の相関関係は、エピポーラ幾何を用いて見つけ出される。数学的モデルによって、顔の内側の特徴および顔の外側輪郭に関する形状の変化が補足される。一アルゴリズムでは、同一の顔の1対の異なるビューにおける顔の特徴のマッチングを改善するために、顔の内側および外側の特徴に分解された顔モデルを使用する。
構造的特徴および/または方法的動作に特有の言葉で本発明を説明してきたが、特許請求の範囲で定義される本発明が、説明した特有の特徴または動作に必ずしも限定されるものではないことを理解されたい。むしろ、特有の特徴および動作は、特許請求する発明を実施する上での例示的な形態として開示されている。
2つの異なる位置にある同一の顔に関する2つの異なる2次元ビュー上の、各顔の特徴の周囲の輪郭を形成する点によって、様々な顔の特徴の隅を合わせるための、基本行列の推定を用いるメカニズムを示した図である。 2つの異なる位置にある同一の顔に関する2つの異なる2次元ビュー上の、各顔の特徴の周囲の輪郭を形成する点によって、様々な顔の特徴の隅を合わせるための、基本行列の推定を用いるメカニズムを示した図である。 複数の点を結ぶ線によって各々の輪郭が描かれた、顔の内側および外側の特徴への顔の分解を示した図である。 本発明の実施形態で使用可能な開始画像を表わした、それぞれ異なる姿勢にある顔の2次元ビューである。 本発明の実施形態で使用可能な開始画像を表わした、それぞれ異なる姿勢にある顔の2次元ビューである。 本発明の一実施形態による、1つの画像の2つの異なる2次元ビュー上の点の間の対応を示したエピポーラ幾何の図である。 本発明の一実施形態による、1つの画像の2つの異なる2次元ビュー上の点の間の対応を示したエピポーラ幾何の図である。 本発明の一実施形態による、基本行列に符号化されたエピポーラ幾何を用いて、図3a〜3bの2つの異なるビュー上の対応する顔の特徴をそれぞれ識別するための、立体結合メカニズムの第1の繰り返しを示した図である。 本発明の一実施形態による、基本行列に符号化されたエピポーラ幾何を用いて、図3a〜3bの2つの異なるビュー上の対応する顔の特徴をそれぞれ識別するための、立体結合メカニズムの第1の繰り返しを示した図である。 図5a〜5bに関して用いられた立体結合メカニズムの第2の繰り返しを示した図である。 図5a〜5bに関して用いられた立体結合メカニズムの第2の繰り返しを示した図である。 図5a〜5bに関して用いられた立体結合メカニズムの第3の繰り返しを示した図である。 図5a〜5bに関して用いられた立体結合メカニズムの第3の繰り返しを示した図である。 図5a〜5bに関して用いられた立体結合メカニズムの第4の繰り返しを示した図である。 図5a〜5bに関して用いられた立体結合メカニズムの第4の繰り返しを示した図である。 図3a〜3bに見られる画像に使用して、図5a〜5bから図8a〜8bに見られる繰り返しの結果をそれぞれ達成した、立体結合メカニズムを用いる顔の特徴検出の手順についての、本発明の一実施形態による、フローチャートである。 本発明の一実施形態によるサーバまたはクライアントを実現するのに使用できるネットワーク接続されたコンピュータのブロック図である。
符号の説明
1042 コンピュータ
1044 処理ユニット
1046 システムメモリ
1048 バス
1050 ROM(読み取り専用メモリ)
1052 RAM(ランダムアクセスメモリ)
1054 BIOS(基本入出力システム)
1056 ハードディスクドライブ
1058 磁気ディスクドライブ
1060 着脱可能磁気ディスク
1062 光ディスクドライブ
1064 着脱可能光ディスク
1066 SCSIインターフェース
1068 シリアルポートインターフェース
1070 オペレーティングシステム
1072 アプリケーションプログラム
1074 他のプログラムモジュール
1076 プログラムデータ
1078 キーボード
1080 ポインティングデバイス
1082 インターフェース
1084 モニタ
1086 ビデオアダプタ
1088 リモートコンピュータ
1090 LAN(ローカルエリアネットワーク)
1092 WAN(ワイドエリアネットワーク)
1094 ネットワークインターフェースまたはアダプタ
1096 モデム

Claims (20)

  1. 顔の特徴を識別するための方法であって、
    3次元の顔についての複数の2次元ビューのトレーニングセットによって導出された2次元の顔モデルにおけるそれぞれが複数の点で表された顔の外側および内側の特徴を、
    第1の顔画像についての第1のモデルの顔の外側および内側の特徴、および
    第2の顔画像についての第2のモデルの顔の外側および内側の特徴に対応付けるステップと、
    前記第1および第2のモデルについて対応するエピポーラ拘束を用いて、前記第1および第2のモデルの前記対応付けられた顔の外側および内側の特徴の各々についての前記複数の点を調整するステップと、
    前記顔モデルの顔の外側および内側の特徴に対応付けられた前記第1のモデルの顔の外側および内側の特徴の各々についての前記複数の点の大多数における相対オフセット値が、収束を許容する所定の値よりも大きな値でなくなるまで、かつ
    前記顔モデルの顔の外側および内側の特徴に対応付けられた前記第2のモデルの顔の外側および内側の特徴の各々についての前記複数の点の大多数における相対調整値が、収束を許容する所定の値よりも大きな値でなくなるまで、前記対応付けるステップおよび前記調整するステップを繰り返すステップを含むことを特徴とする方法。
  2. 前記顔の内側および外側の特徴をそれぞれ含む前記第1および第2のモデルの各々の表現を出力するステップをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
    前記顔の外側の特徴は、顔の弓形の底端部、および1対の眉を含むことを特徴とする請求項1に記載の方法。
  4. 前記複数の点および対応する前記顔の内側の特徴は、
    前記口に対応する複数の口の隅と、
    前記目に対応する複数の目の隅と、
    前記鼻に対応する鼻の先とから成る群から選択されることを特徴とする請求項1に記載の方法。
  5. 前記第1および第2の顔画像は、同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項1に記載の方法。
  6. 前記第1および第2の顔画像の顔姿勢はそれぞれ、
    ピッチに関して同じであり、
    ロールに関して同じであり、
    ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項5に記載の方法。
  7. 前記第1および第2の顔画像は、ヨーだけが異なる同じ顔の向きの範囲にある同一の顔の、同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項1に記載の方法。
  8. 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項1に記載の方法。
  9. 前記第1の顔画像は、人の顔の全体正面写真であり、
    前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項1に記載の方法。
  10. 前記第1および第2のモデルの前記顔の内側および外側の特徴にそれぞれ対応する前記複数の点を使用して、前記第1および第2の顔画像のうち少なくとも一方に対応するデータベース内の人の顔を識別するステップをさらに含むことを特徴とする請求項1に記載の方法。
  11. コンピュータに、請求項1に記載の方法を実行させるプログラムを記録したことを特徴とするコンピュータ可読記録媒体。
  12. 顔の特徴を識別するための装置であって、
    1つまたは複数のプログラム、
    3次元の顔についての複数の2次元ビューのトレーニングセットによって導出された2次元の顔モデルにおけるそれぞれが複数の点で表わされた顔の外側および内側の特徴、
    第1の顔画像、および
    第2の顔画像
    を含むメモリと、
    前記メモリ内の前記1つまたは複数のプログラムを実行して、
    前記顔モデルの前記顔の外側および内側の特徴の前記複数の点を
    前記第1の顔画像の第1のモデルの顔の外側および内側の特徴、および
    前記第2の顔画像の第2のモデルの顔の外側および内側の特徴に対応付けるステップ、
    前記第1および第2のモデルの前記対応付けられた顔の外側および内側の特徴の各々についての前記複数の点を、前記第1および第2のモデルについて対応するエピポーラ拘束を用いて調整するステップ、および
    前記顔モデルの顔の外側および内側の特徴に対応づけられた前記第1のモデルの顔の外側および内側の特徴の各々についての前記複数の点の大多数における相対オフセット値が、収束を許容する所定の値よりも大きな値でなくなるまで、かつ
    前記顔モデルの顔の外側および内側の特徴に対応づけられた前記第2のモデルの顔の外側および内側の特徴の各々についての前記複数の点の大多数における相対オフセット値が、収束を許容する所定の値よりも大きな値でなくなるまで、前記対応付けるステップおよび前記調整するステップを繰り返すステップ
    を実行するように構成された1つまたは複数のプロセッサと
    を備えたことを特徴とする装置。
  13. 前記顔の内側および外側の特徴をそれぞれ含む前記第1および第2のモデル各々の表現を出力するステップをさらに含むことを特徴とする請求項12に記載の装置。
  14. 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
    前記顔の外側の特徴は、顔の弓形の底端部、および1対の眉を含むことを特徴とする請求項12に記載の装置。
  15. 前記複数の点および対応する前記顔の内側の特徴は、
    前記口に対応する複数の口の隅と、
    前記目に対応する複数の目の隅と、
    前記鼻に対応する鼻の先とから成る群から選択されることを特徴とする請求項12に記載の装置。
  16. 前記第1および第2の顔画像は、同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項12に記載の装置。
  17. 前記第1および第2の顔画像の顔姿勢はそれぞれ、
    ピッチに関して同じであり、
    ロールに関して同じであり、
    ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項16に記載の装置。
  18. 前記第1および第2の顔画像は、ヨーだけが異なる同じ顔の向きの範囲にある同一の顔の、同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項12に記載の装置。
  19. 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項12に記載の装置。
  20. 前記第1の顔画像は、人の顔の全体正面写真であり、
    前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項12に記載の装置。
JP2004190392A 2003-06-30 2004-06-28 立体結合顔形状の位置合わせ Expired - Fee Related JP4466951B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/610,494 US7218760B2 (en) 2003-06-30 2003-06-30 Stereo-coupled face shape registration

Publications (3)

Publication Number Publication Date
JP2005025748A JP2005025748A (ja) 2005-01-27
JP2005025748A5 JP2005025748A5 (ja) 2007-08-16
JP4466951B2 true JP4466951B2 (ja) 2010-05-26

Family

ID=33452630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004190392A Expired - Fee Related JP4466951B2 (ja) 2003-06-30 2004-06-28 立体結合顔形状の位置合わせ

Country Status (7)

Country Link
US (1) US7218760B2 (ja)
EP (1) EP1496466B1 (ja)
JP (1) JP4466951B2 (ja)
KR (1) KR100874817B1 (ja)
CN (1) CN100530216C (ja)
AT (1) ATE377806T1 (ja)
DE (1) DE602004009863T2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421097B2 (en) * 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
US7236615B2 (en) * 2004-04-21 2007-06-26 Nec Laboratories America, Inc. Synergistic face detection and pose estimation with energy-based models
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
KR101122513B1 (ko) * 2005-04-04 2012-03-15 (주)아이리스아이디 3차원 위치정보를 이용한 안구위치 추정시스템 및 안구위치추정방법
KR100810326B1 (ko) * 2006-10-10 2008-03-04 삼성전자주식회사 다해상도 3차원 모델 생성 방법
JP5003242B2 (ja) * 2007-03-28 2012-08-15 富士通株式会社 照合装置、照合方法および照合プログラム
JP5445460B2 (ja) * 2008-10-28 2014-03-19 日本電気株式会社 なりすまし検知システム、なりすまし検知方法及びなりすまし検知プログラム
CN102035755B (zh) * 2010-10-15 2012-06-13 东莞宇龙通信科技有限公司 一种采用表情传输载体传输心情的方法、装置及聊天系统
US8891876B2 (en) 2011-04-25 2014-11-18 Hewlett-Packard Development Company, L.P. Mouth corner candidates
US8903198B2 (en) * 2011-06-03 2014-12-02 International Business Machines Corporation Image ranking based on attribute correlation
US8983203B2 (en) * 2011-10-14 2015-03-17 Ulsee Inc. Face-tracking method with high accuracy
US9342735B2 (en) * 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
US8972310B2 (en) * 2012-03-12 2015-03-03 The Boeing Company Method for identifying structural deformation
JP5808282B2 (ja) * 2012-03-23 2015-11-10 三菱電機株式会社 映像信号記録再生装置及び監視方法
TWI510082B (zh) * 2012-06-06 2015-11-21 Etron Technology Inc 用於影像辨識之影像擷取方法及其系統
US9406135B2 (en) * 2012-10-29 2016-08-02 Samsung Electronics Co., Ltd. Device and method for estimating head pose
CN104715227B (zh) 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
US9916495B2 (en) * 2014-03-28 2018-03-13 Nec Corporation Face comparison device, method, and recording medium
US9251427B1 (en) 2014-08-12 2016-02-02 Microsoft Technology Licensing, Llc False face representation identification
US10326972B2 (en) 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
CN107852443B (zh) * 2015-07-21 2020-01-07 索尼公司 信息处理设备、信息处理方法和程序
CN106529409B (zh) * 2016-10-10 2019-08-09 中山大学 一种基于头部姿态的眼睛注视视角测定方法
CN108133221B (zh) * 2016-12-01 2022-06-07 佳能株式会社 对象形状检测装置和方法、图像处理装置及监视系统
CN110763150B (zh) * 2018-07-26 2021-05-25 王东 一种面部轮廓测量方法
CN110728287A (zh) * 2019-10-10 2020-01-24 深圳铂石空间科技有限公司 图像识别方法及装置、电子设备、存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1045129C (zh) * 1993-03-29 1999-09-15 松下电器产业株式会社 个人识别装置
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
KR20020007744A (ko) * 2000-07-18 2002-01-29 최창석 미래 자녀 얼굴 모델링 방법과 미래 얼굴 모델링 방법
KR20020032048A (ko) * 2000-10-25 2002-05-03 이인동 얼굴 인식 보안방법
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
KR100372811B1 (ko) * 2000-12-19 2003-02-26 (주) 웹씨인터미디어 2차원 얼굴 정면 이미지를 이용한 3차원 얼굴 모델 생성방법
KR100445800B1 (ko) * 2001-01-05 2004-08-25 학교법인 인하학원 상관관계를 이용한 유사도 측정의 얼굴 인증 방법

Also Published As

Publication number Publication date
DE602004009863D1 (de) 2007-12-20
KR20050002611A (ko) 2005-01-07
ATE377806T1 (de) 2007-11-15
US7218760B2 (en) 2007-05-15
KR100874817B1 (ko) 2008-12-26
US20040264745A1 (en) 2004-12-30
CN100530216C (zh) 2009-08-19
DE602004009863T2 (de) 2008-02-28
CN1577379A (zh) 2005-02-09
EP1496466A3 (en) 2006-01-18
JP2005025748A (ja) 2005-01-27
EP1496466B1 (en) 2007-11-07
EP1496466A2 (en) 2005-01-12

Similar Documents

Publication Publication Date Title
JP4466951B2 (ja) 立体結合顔形状の位置合わせ
Dai et al. A 3d morphable model of craniofacial shape and texture variation
Gerig et al. Morphable face models-an open framework
JP7203954B2 (ja) 顔姿勢推定/3次元顔再構築方法、装置、及び電子デバイス
US7643685B2 (en) Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
US7876931B2 (en) Face recognition system and method
US9619704B2 (en) Fast articulated motion tracking
US9400921B2 (en) Method and system using a data-driven model for monocular face tracking
JP4234381B2 (ja) 顔の特徴を位置確認するための方法及びコンピュータープログラム製品
JP4556873B2 (ja) 画像照合システム及び画像照合方法
KR101007276B1 (ko) 3차원 안면 인식
US20170249423A1 (en) Scan data retrieval with depth sensor data
JP2007249280A (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
Chen et al. Single and sparse view 3d reconstruction by learning shape priors
CN110990604A (zh) 图像底库生成方法、人脸识别方法和智能门禁系统
Amberg Editing faces in videos
Sukno et al. Projective active shape models for pose-variant image analysis of quasi-planar objects: Application to facial analysis
Efraty et al. Towards 3D-aided profile-based face recognition
González-Jiménez et al. Automatic pose correction for local feature-based face authentication
Dai Statistical Modelling of Craniofacial Shape
Bhagavatula Robust Pose Invariant Face Recognition Using 3D Thin Plate Spline Spatial Transformer Networks
Martins Parametric face alignment: Generative and discriminative approaches

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070628

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090814

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100218

R150 Certificate of patent or registration of utility model

Ref document number: 4466951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees