JP2005025748A - 立体結合顔形状の位置合わせ - Google Patents
立体結合顔形状の位置合わせ Download PDFInfo
- Publication number
- JP2005025748A JP2005025748A JP2004190392A JP2004190392A JP2005025748A JP 2005025748 A JP2005025748 A JP 2005025748A JP 2004190392 A JP2004190392 A JP 2004190392A JP 2004190392 A JP2004190392 A JP 2004190392A JP 2005025748 A JP2005025748 A JP 2005025748A
- Authority
- JP
- Japan
- Prior art keywords
- face
- features
- model
- points
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7553—Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Golf Clubs (AREA)
Abstract
【解決手段】 顔の外側および内側の特徴を有する顔モデルを、第1および第2のモデルの顔の外側および内側の特徴とマッチさせる。第1および第2のモデルの各顔の特徴は、複数の点によって表わされ、その複数の点は、第1および第2のモデルの各マッチした顔の外側および内側の特徴について、1)第1および第2のモデルの内側の特徴のための対応するエピポーラ拘束と、2)第1および第2のモデルの外側および内側の特徴の局所グレイレベル構造とを使用して調整される。第1および第2のモデルの各々について、顔モデルの顔の外側および内側の特徴とマッチする第1および第2のモデル上の顔の外側および内側の特徴の各々の点が、所定の収束許容値以下の対応点との間の相対オフセットをもつようになるまで、マッチングおよび調整が繰り返される。
【選択図】 図9
Description
図1a〜図1bには、2つの対象画像が示されており、2つの対象画像は、それらの間の基本行列Eを推定することによりキャリブレートされる。1対の画像のための基本行列Eを計算する公式の一例が、チャン他(Zhang et al.)によって提供されている(例えば、非特許文献2参照)。2つの画像は、頭部を正面に向け、静止カメラで撮影されたものであり、2つのビューの間には、ヨー方向(yaw direction)の動きが見られる。頭部の回転に伴い照明が変化するので、物理的に同一の点の色が、2つの画像で相違して見える。したがって、顔の特徴の識別は、光の流れに基づく方法よりも輝度に対してロバスト性があるので、顔の特徴を識別するほうが有利である。基本行列Eの推定には、4つの異なるステップ、すなわち、1)2つの異なる画像の間の差を決定することにより、顔の位置を概算するステップと、2)画像中の各顔の特徴の隅を検出するステップと、3)2つの異なる画像の相関により、各顔の特徴の隅をマッチングするステップと、4)誤マッチを排除し、最小平均2乗(least median squares)によって基本行列を推定するステップとが含まれ得る。図1a〜図1bには、1対の顔画像と、上述の技法によって定められた、顔の特徴について隅がマッチする組が示されている。しかし、2つの異なる画像の間のより正確な顔の特徴の相関関係のために、顔モデルが必要とされる。図2に示され、以下で説明される、そのような顔モデルは、鼻、目、眉、口などの顔の特徴の表現となる。
顔形状のトレーニングセットT={Si|i∈0〜N}を既定することができる。ただし、形状ベクトルは、Si=(<x1,y1>,<x2,y2>,...,<xK,yK>,)∈R2K、K=83で表わされる。形状ベクトルSiは、顔の様々な特徴を構成する点(特徴点)を表わす。図2に見られるように、顔は、顔の内側の特徴(目、鼻、および口)に分解されており、その各々は、複数の点を結んだ線によって輪郭を描かれている。図2には、これら3つの異なる顔の内側の特徴を構成する63個の点が示されている。顔はまた、顔の外側の特徴(1対の眉、ならびに顎、顎先、および頬から成る輪郭)に分解されており、その各々は、複数の点を結んだ線によって輪郭を描かれている。図2には、これら2つの異なる顔の外側の特徴を構成する19個の点が示されている。したがって、図2の最下図に示す分解された顔の特徴の合成から分かるように、合計83個の点が、5つの異なる顔の特徴を構成している。
同一の顔の2つのビューにおける対応する顔の特徴のマッチングを行う立体結合モデルは、両画像における顔の位置および平均形状ベクトルの初期推定を行うことから始まる。ASMを2つのビューにそれぞれ適用し、局所テクスチャ統計(例えば、各点近傍の測光データ)に従って、各顔の特徴の各点を更新する。これを行うために、モデル境界に対して垂直な方向に沿って、点を移動させる。次に、マッチの質が評価され、このことから、各点の新しい位置を提示することができる。最良のマッチはしばしば、測光データの大きさに基づいて強いエッジ上に見つかる。
図10には、本明細書で説明した実施形態において使用できる、例示的なコンピュータシステムが示されている。コンピュータ1042は、1つまたは複数のプロセッサまたは処理ユニット1044、システムメモリ1046、およびシステムメモリ1046を含む様々なシステムコンポーネントをプロセッサ1044に結合するバス1048を含む。バス1042は、様々なバスアーキテクチャのいずれかを使用する、メモリバスまたはメモリコントローラ、周辺機器バス、アクセラレーテッドグラフィックスポート、およびプロセッサまたはローカルバスを含む、複数のタイプのバス構造の1つまたは複数を表わす。システムメモリには、読み取り専用メモリ(ROM)1050およびランダムアクセスメモリ(RAM)1052が含まれる。基本入出力システム(BIOS)1054は、起動時などにコンピュータ1042の構成要素間の情報伝送を助ける基本ルーチンを含み、ROM1050に格納される。
本発明の実施形態によって、顔の特徴を表現し、目の隅や鼻の先などの、顔の特徴の中の点を探し出すことが可能になる。同一の顔の1対の異なるビューにおける顔の特徴の相関関係は、エピポーラ幾何を用いて見つけ出される。数学的モデルによって、顔の内側の特徴および顔の外側輪郭に関する形状の変化が補足される。一アルゴリズムでは、同一の顔の1対の異なるビューにおける顔の特徴のマッチングを改善するために、顔の内側および外側の特徴に分解された顔モデルを使用する。
1044 処理ユニット
1046 システムメモリ
1048 バス
1050 ROM(読み取り専用メモリ)
1052 RAM(ランダムアクセスメモリ)
1054 BIOS(基本入出力システム)
1056 ハードディスクドライブ
1058 磁気ディスクドライブ
1060 着脱可能磁気ディスク
1062 光ディスクドライブ
1064 着脱可能光ディスク
1066 SCSIインターフェース
1068 シリアルポートインターフェース
1070 オペレーティングシステム
1072 アプリケーションプログラム
1074 他のプログラムモジュール
1076 プログラムデータ
1078 キーボード
1080 ポインティングデバイス
1082 インターフェース
1084 モニタ
1086 ビデオアダプタ
1088 リモートコンピュータ
1090 LAN(ローカルエリアネットワーク)
1092 WAN(ワイドエリアネットワーク)
1094 ネットワークインターフェースまたはアダプタ
1096 モデム
Claims (55)
- 顔モデルの顔の外側および内側の特徴を、
第1の顔画像についての第1のモデルの顔の外側および内側の特徴、および
第2の顔画像についての第2のモデルの顔の外側および内側の特徴とマッチさせるステップと、
前記第1および第2のモデルについて対応するエピポーラ拘束を用いて、前記第1および第2のモデルの前記マッチした顔の外側および内側の特徴の各々を調整するステップとを含むことを特徴とする方法。 - 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
前記顔の外側の特徴は、顔の弓形底端部、および1対の眉を含むことを特徴とする請求項1に記載の方法。 - 複数の点が、前記各顔の内側の特徴に対応し、
前記口に対応する複数の口の隅と、
前記目に対応する複数の目の隅と、
前記鼻に対応する鼻の先とを含むことを特徴とする請求項1に記載の方法。 - 前記第1および第2の顔画像は、実質的に同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項1に記載の方法。
- 前記第1および第2の顔画像の顔姿勢はそれぞれ、
ピッチに関して実質的に同じであり、
ロールに関して実質的に同じであり、
ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項4に記載の方法。 - 前記第1および第2の顔画像は、ヨーだけが異なる実質的に同じ顔の向きの範囲にある同一の顔の、実質的に同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項1に記載の方法。
- 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項1に記載の方法。
- 前記第1の顔画像は、人の顔の全体正面写真であり、
前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項1に記載の方法。 - 前記顔の内側および外側の特徴をそれぞれ含む、前記第1および第2のモデルの各々の表現を出力するステップをさらに含むことを特徴とする請求項1に記載の方法。
- 前記出力するステップは、
前記第1のモデル上の前記顔の内側および外側の特徴の前記各マッチが、前記顔モデルの顔の内側および外側の特徴に関して、所定の収束許容値以下となり、
前記第2のモデル上の前記顔の内側および外側の特徴の前記各マッチが、前記顔モデルの顔の内側および外側の特徴に関して、所定の収束許容値以下となるまで、前記マッチングと前記調整を繰り返すステップをさらに含むことを特徴とする請求項9に記載の方法。 - 前記第1のモデル上の前記顔の内側および外側の特徴の前記各マッチが、前記顔モデルの顔の内側および外側の特徴に関して、所定の収束許容値以下となり、
前記第2のモデル上の前記顔の内側および外側の特徴の前記各マッチが、前記顔モデルの顔の内側および外側の特徴に関して、所定の収束許容値以下となるまで、前記マッチングと前記調整を繰り返すステップをさらに含むことを特徴とする請求項1に記載の方法。 - 前記第1および第2のモデルの前記顔の内側および外側の特徴をそれぞれ使用して、前記第1および第2の顔画像のうち少なくとも一方とマッチングする、データベース内の人の顔を識別するステップをさらに含むことを特徴とする請求項1に記載の方法。
- 実行された場合に、請求項1に記載の方法を実行する命令を含むことを特徴とするコンピュータ可読媒体。
- 各々が複数の点によって表わされた、顔モデルの顔の外側および内側の特徴を、
第1の顔画像のための第1のモデルの顔の外側および内側の特徴、および
第2の顔画像のための第2のモデルの顔の外側および内側の特徴とマッチさせるステップと、
前記第1および第2のモデルについて対応するエピポーラ拘束を用いて、前記第1および第2のモデルの前記マッチした顔の外側および内側の特徴の各々の前記複数の点を調整するステップと、
前記顔モデルの顔の外側および内側の特徴とマッチする前記第1のモデル上の前記顔の外側および内側の特徴の各々の前記点の大多数が、所定の収束許容値以下の対応点との間の相対的オフセットを有し、
前記顔モデルの顔の外側および内側の特徴とマッチする前記第2のモデル上の前記顔の外側および内側の特徴の各々の前記点の大多数が、所定の収束許容値以下の対応点との間の相対的オフセットを有するまで、前記マッチングと前記調整を繰り返すステップを含むことを特徴とする方法。 - 前記顔の内側および外側の特徴をそれぞれ含む前記第1および第2のモデルの各々の表現を出力するステップをさらに含むことを特徴とする請求項14に記載の方法。
- 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
前記顔の外側の特徴は、顔の弓形の底端部、および1対の眉を含むことを特徴とする請求項14に記載の方法。 - 前記複数の点および対応する前記顔の内側の特徴は、
前記口に対応する複数の口の隅と、
前記目に対応する複数の目の隅と、
前記鼻に対応する鼻の先とから成る群から選択されることを特徴とする請求項14に記載の方法。 - 前記第1および第2の顔画像は、実質的に同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項14に記載の方法。
- 前記第1および第2の顔画像の顔姿勢はそれぞれ、
ピッチに関して実質的に同じであり、
ロールに関して実質的に同じであり、
ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項18に記載の方法。 - 前記第1および第2の顔画像は、ヨーだけが異なる実質的に同じ顔の向きの範囲にある同一の顔の、実質的に同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項14に記載の方法。
- 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項14に記載の方法。
- 前記第1の顔画像は、人の顔の全体正面写真であり、
前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項14に記載の方法。 - 前記第1および第2のモデルの前記顔の内側および外側の特徴にそれぞれ対応する点を使用して、前記第1および第2の顔画像のうち少なくとも一方とマッチングする、データベース内の人の顔を識別するステップをさらに含むことを特徴とする請求項14に記載の方法。
- 実行された場合に、請求項14に記載の方法を実行する命令を含むことを特徴とするコンピュータ可読媒体。
- (a)複数の点を各々が含む顔の外側および内側の特徴を有する顔モデルを使用して、第1の顔画像の第1のモデルおよび第2の顔画像の第2のモデルを初期化するステップであって、前記第1および第2のモデルの各々が、複数の点を各々が含む顔の外側および内側の特徴を有するステップと、
(b)前記第1および第2のモデルについて基本行列を推定するステップと、
(c)前記第1および第2のモデルの前記各顔の内側の特徴の前記複数の点を、前記各点の局所テクスチャをそれぞれ使用して、更新するステップと、
(d)前記第1および第2のモデルの前記各顔の内側の特徴を更新するステップと、
(e)前記基本行列および対応するエピポーラ拘束を使用して、前記第1および第2のモデルの各顔の内側の特徴の前記複数の点を更新するステップと、
(f)前記第1および第2のモデルの前記各顔の外側の特徴を更新するステップとを含むことを特徴とする方法。 - (g)前記第1のモデルが、前記顔モデルの所定の許容値内に収束した場合は、前記第1のモデルの前記顔の内側および外側の特徴の表現を出力するステップと、収束していない場合は、前記第1のモデルについてステップ(c)ないし(f)を繰り返すステップと、
(h)前記第2のモデルが、前記顔モデルの所定の許容値内に収束した場合は、前記第2のモデルの前記顔の内側および外側の特徴の表現を出力するステップと、収束していない場合は、前記第2のモデルについてステップ(c)ないし(f)を繰り返すステップとをさらに含むことを特徴とする請求項25に記載の方法。 - 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
前記顔の外側の特徴は、顔の弓形の底端部、および1対の眉を含むことを特徴とする請求項25に記載の方法。 - 前記各顔の内側の特徴に対応する前記複数の点が、
前記口に対応する複数の口の隅と、
前記目に対応する複数の目の隅と、
前記鼻に対応する鼻の先とを含むことを特徴とする請求項27に記載の方法。 - 前記第1および第2の顔画像は、実質的に同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項25に記載の方法。
- 前記第1および第2の顔画像の顔姿勢はそれぞれ、
ピッチに関して実質的に同じであり、
ロールに関して実質的に同じであり、
ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項29に記載の方法。 - 前記第1および第2の顔画像は、ヨーだけが異なる実質的に同じ顔の向きの範囲にある同一の顔の、実質的に同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項25に記載の方法。
- 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項25に記載の方法。
- 前記第1の顔画像は、人の顔の全体正面写真であり、
前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項25に記載の方法。 - 前記各点の局所テクスチャは、前記点の、または前記点の近傍の測光データを含むことを特徴とする請求項25に記載の方法。
- 前記第1のモデルおよび
前記第2のモデルの前記顔の内側および外側の特徴の出力表現をそれぞれ使用して、前記第1および第2の顔画像のうち少なくとも一方とマッチする、データベース内の人の顔を識別するステップをさらに含むことを特徴とする請求項25に記載の方法。 - 実行された場合に、請求項25に記載の方法を実行する命令を含むことを特徴とするコンピュータ可読媒体。
- 1つまたは複数のプログラム、
複数の点で各々が表わされた顔モデルの顔の外側および内側の特徴、
第1の顔画像、および
第2の顔画像
を含むメモリと、
前記メモリ内の前記1つまたは複数のプログラムを実行して、
前記顔モデルの前記顔の外側および内側の特徴の前記複数の点を
前記第1の顔画像の第1のモデルの顔の外側および内側の特徴の複数の点、および前記第2の顔画像の第2のモデルの顔の外側および内側の特徴の複数の点とマッチさせるステップ、
前記第1および第2のモデルの前記マッチした顔の外側および内側の特徴の各々の前記複数の点を、前記第1および第2のモデルについて対応するエピポーラ拘束を用いて調整するステップ、および
前記顔モデルの顔の外側および内側の特徴とマッチする前記第1のモデル上の前記顔の外側および内側の特徴の各々の前記点の大多数が、所定の収束許容値以下の対応点との間の相対的オフセットを有し、
前記顔モデルの顔の外側および内側の特徴とマッチする前記第2のモデル上の前記顔の外側および内側の特徴の各々の前記点の大多数が、所定の収束許容値以下の対応点との間の相対的オフセットを有するまで、前記マッチさせるステップおよび前記調整するステップを繰り返すステップを含む諸ステップ
を実行するように構成された1つまたは複数のプロセッサと
を備えたことを特徴とする装置。 - 前記諸ステップが、前記顔の内側および外側の特徴をそれぞれ含む前記第1および第2のモデル各々の表現を出力するステップをさらに含むことを特徴とする請求項37に記載の装置。
- 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
前記顔の外側の特徴は、顔の弓形の底端部、および1対の眉を含むことを特徴とする請求項37に記載の装置。 - 前記複数の点および対応する前記顔の内側の特徴は、
前記口に対応する複数の口の隅と、
前記目に対応する複数の目の隅と、
前記鼻に対応する鼻の先とから成る群から選択されることを特徴とする請求項37に記載の装置。 - 前記第1および第2の顔画像は、実質的に同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項37に記載の装置。
- 前記第1および第2の顔画像の顔姿勢はそれぞれ、
ピッチに関して実質的に同じであり、
ロールに関して実質的に同じであり、
ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項41に記載の装置。 - 前記第1および第2の顔画像は、ヨーだけが異なる実質的に同じ顔の向きの範囲にある同一の顔の、実質的に同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項37に記載の装置。
- 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項37に記載の装置。
- 前記第1の顔画像は、人の顔の全体正面写真であり、
前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項37に記載の装置。 - 複数の点を各々が含む顔の外側および内側の特徴を有する顔モデルを使用して、第1の顔画像の第1のモデルおよび第2の顔画像の第2のモデルを初期化する手段であって、前記第1および第2のモデルの各々が、複数の点を各々が含む顔の外側および内側の特徴を有する手段と、
前記第1および第2のモデルのための基本行列を推定する手段と、
前記第1および第2のモデルの前記各顔の内側の特徴の前記複数の点を、前記各点の局所テクスチャをそれぞれ使用して、更新する手段と、
前記第1および第2のモデルの前記各顔の内側の特徴を更新する手段と、
前記基本行列および対応するエピポーラ拘束を使用して、前記第1および第2のモデルの各顔の内側の特徴の前記複数の点を更新する手段と、
前記第1および第2のモデルの前記各顔の内側の特徴の前記複数の点を使用して、前記第1および第2のモデルの前記各顔の外側の特徴を更新する手段と
を備えたことを特徴とする装置。 - 前記顔モデルの顔の外側および内側の特徴とマッチする前記第1のモデル上の前記顔の外側および内側の特徴の各々の前記点の大多数が、所定の収束許容値以下の対応点との間の相対的オフセットを有する場合は、前記第1のモデルの前記顔の内側および外側の特徴の表現を出力する手段と、
前記顔モデルの顔の外側および内側の特徴とマッチする前記第2のモデル上の前記顔の外側および内側の特徴の各々の前記点の大多数が、所定の収束許容値以下の対応点との間の相対的オフセットを有する場合は、前記第2のモデルの前記顔の内側および外側の特徴の表現を出力する手段と
をさらに備えたことを特徴とする請求項46に記載の装置。 - 前記顔の内側の特徴は、鼻、口、および1対の目を含み、
前記顔の外側の特徴は、顔の弓形の底端部、および1対の眉を含むことを特徴とする請求項46に記載の装置。 - 前記各顔の内側の特徴に対応する前記複数の点が、
前記口に対応する複数の口の隅と、
前記目に対応する複数の目の隅と、
前記鼻に対応する鼻の先とを含むことを特徴とする請求項48に記載の装置。 - 前記第1および第2の顔画像は、実質的に同じカメラ方向でそれぞれ捉えた同一の顔であることを特徴とする請求項46に記載の装置。
- 前記第1および第2の顔画像の顔姿勢はそれぞれ、
ピッチに関して実質的に同じであり、
ロールに関して実質的に同じであり、
ヨーに関して約3度から約10度の範囲で異なることを特徴とする請求項46に記載の装置。 - 前記第1と第2の顔画像とは、ヨーだけが異なる実質的に同じ顔の向きの範囲にある同一の顔の、実質的に同じカメラ方向でそれぞれ撮影された写真であることを特徴とする請求項46に記載の装置。
- 前記顔の向きの範囲は、前記第1と第2の顔画像とで、ヨーが最大で約10度異なることを特徴とする請求項46に記載の装置。
- 前記第1の顔画像は、人の顔の全体正面写真であり、
前記第2の顔画像は、前記第1の顔画像から、ヨーが最大で約10度異なることを特徴とする請求項46に記載の装置。 - 前記各点の局所テクスチャは、前記点または前記点の近傍の測光データを含むことを特徴とする請求項46に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/610,494 US7218760B2 (en) | 2003-06-30 | 2003-06-30 | Stereo-coupled face shape registration |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005025748A true JP2005025748A (ja) | 2005-01-27 |
JP2005025748A5 JP2005025748A5 (ja) | 2007-08-16 |
JP4466951B2 JP4466951B2 (ja) | 2010-05-26 |
Family
ID=33452630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004190392A Expired - Fee Related JP4466951B2 (ja) | 2003-06-30 | 2004-06-28 | 立体結合顔形状の位置合わせ |
Country Status (7)
Country | Link |
---|---|
US (1) | US7218760B2 (ja) |
EP (1) | EP1496466B1 (ja) |
JP (1) | JP4466951B2 (ja) |
KR (1) | KR100874817B1 (ja) |
CN (1) | CN100530216C (ja) |
AT (1) | ATE377806T1 (ja) |
DE (1) | DE602004009863T2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013190427A (ja) * | 2012-03-12 | 2013-09-26 | Boeing Co:The | 構造変形を識別するための方法および装置 |
JP2013200628A (ja) * | 2012-03-23 | 2013-10-03 | Mitsubishi Electric Corp | 映像信号記録再生装置及び監視方法 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7421097B2 (en) * | 2003-05-27 | 2008-09-02 | Honeywell International Inc. | Face identification verification using 3 dimensional modeling |
US7236615B2 (en) * | 2004-04-21 | 2007-06-26 | Nec Laboratories America, Inc. | Synergistic face detection and pose estimation with energy-based models |
JP4459788B2 (ja) * | 2004-11-16 | 2010-04-28 | パナソニック株式会社 | 顔特徴照合装置、顔特徴照合方法、及びプログラム |
KR101122513B1 (ko) * | 2005-04-04 | 2012-03-15 | (주)아이리스아이디 | 3차원 위치정보를 이용한 안구위치 추정시스템 및 안구위치추정방법 |
KR100810326B1 (ko) * | 2006-10-10 | 2008-03-04 | 삼성전자주식회사 | 다해상도 3차원 모델 생성 방법 |
JP5003242B2 (ja) * | 2007-03-28 | 2012-08-15 | 富士通株式会社 | 照合装置、照合方法および照合プログラム |
US8860795B2 (en) * | 2008-10-28 | 2014-10-14 | Nec Corporation | Masquerading detection system, masquerading detection method, and computer-readable storage medium |
CN102035755B (zh) * | 2010-10-15 | 2012-06-13 | 东莞宇龙通信科技有限公司 | 一种采用表情传输载体传输心情的方法、装置及聊天系统 |
US8891876B2 (en) | 2011-04-25 | 2014-11-18 | Hewlett-Packard Development Company, L.P. | Mouth corner candidates |
US8903198B2 (en) * | 2011-06-03 | 2014-12-02 | International Business Machines Corporation | Image ranking based on attribute correlation |
US8983203B2 (en) * | 2011-10-14 | 2015-03-17 | Ulsee Inc. | Face-tracking method with high accuracy |
US9342735B2 (en) * | 2011-12-01 | 2016-05-17 | Finding Rover, Inc. | Facial recognition lost pet identifying system |
TWI510082B (zh) * | 2012-06-06 | 2015-11-21 | Etron Technology Inc | 用於影像辨識之影像擷取方法及其系統 |
US9406135B2 (en) * | 2012-10-29 | 2016-08-02 | Samsung Electronics Co., Ltd. | Device and method for estimating head pose |
CN104715227B (zh) * | 2013-12-13 | 2020-04-03 | 北京三星通信技术研究有限公司 | 人脸关键点的定位方法和装置 |
WO2015146101A1 (ja) * | 2014-03-28 | 2015-10-01 | 日本電気株式会社 | 顔照合装置、方法、及び、記録媒体 |
US9251427B1 (en) * | 2014-08-12 | 2016-02-02 | Microsoft Technology Licensing, Llc | False face representation identification |
US10326972B2 (en) | 2014-12-31 | 2019-06-18 | Samsung Electronics Co., Ltd. | Three-dimensional image generation method and apparatus |
WO2017013936A1 (ja) * | 2015-07-21 | 2017-01-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN106529409B (zh) * | 2016-10-10 | 2019-08-09 | 中山大学 | 一种基于头部姿态的眼睛注视视角测定方法 |
CN108133221B (zh) * | 2016-12-01 | 2022-06-07 | 佳能株式会社 | 对象形状检测装置和方法、图像处理装置及监视系统 |
CN110763150B (zh) * | 2018-07-26 | 2021-05-25 | 王东 | 一种面部轮廓测量方法 |
CN110728287A (zh) * | 2019-10-10 | 2020-01-24 | 深圳铂石空间科技有限公司 | 图像识别方法及装置、电子设备、存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1045129C (zh) * | 1993-03-29 | 1999-09-15 | 松下电器产业株式会社 | 个人识别装置 |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
KR100343223B1 (ko) * | 1999-12-07 | 2002-07-10 | 윤종용 | 화자 위치 검출 장치 및 그 방법 |
KR20020007744A (ko) * | 2000-07-18 | 2002-01-29 | 최창석 | 미래 자녀 얼굴 모델링 방법과 미래 얼굴 모델링 방법 |
KR20020032048A (ko) * | 2000-10-25 | 2002-05-03 | 이인동 | 얼굴 인식 보안방법 |
US7020305B2 (en) | 2000-12-06 | 2006-03-28 | Microsoft Corporation | System and method providing improved head motion estimations for animation |
KR100372811B1 (ko) * | 2000-12-19 | 2003-02-26 | (주) 웹씨인터미디어 | 2차원 얼굴 정면 이미지를 이용한 3차원 얼굴 모델 생성방법 |
KR100445800B1 (ko) * | 2001-01-05 | 2004-08-25 | 학교법인 인하학원 | 상관관계를 이용한 유사도 측정의 얼굴 인증 방법 |
-
2003
- 2003-06-30 US US10/610,494 patent/US7218760B2/en active Active
-
2004
- 2004-05-21 EP EP04102238A patent/EP1496466B1/en not_active Expired - Lifetime
- 2004-05-21 AT AT04102238T patent/ATE377806T1/de not_active IP Right Cessation
- 2004-05-21 DE DE602004009863T patent/DE602004009863T2/de not_active Expired - Lifetime
- 2004-06-28 JP JP2004190392A patent/JP4466951B2/ja not_active Expired - Fee Related
- 2004-06-29 KR KR1020040049380A patent/KR100874817B1/ko active IP Right Grant
- 2004-06-30 CN CNB2004100632510A patent/CN100530216C/zh not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013190427A (ja) * | 2012-03-12 | 2013-09-26 | Boeing Co:The | 構造変形を識別するための方法および装置 |
JP2013200628A (ja) * | 2012-03-23 | 2013-10-03 | Mitsubishi Electric Corp | 映像信号記録再生装置及び監視方法 |
Also Published As
Publication number | Publication date |
---|---|
US20040264745A1 (en) | 2004-12-30 |
JP4466951B2 (ja) | 2010-05-26 |
KR100874817B1 (ko) | 2008-12-26 |
EP1496466A3 (en) | 2006-01-18 |
ATE377806T1 (de) | 2007-11-15 |
CN1577379A (zh) | 2005-02-09 |
US7218760B2 (en) | 2007-05-15 |
DE602004009863T2 (de) | 2008-02-28 |
EP1496466A2 (en) | 2005-01-12 |
CN100530216C (zh) | 2009-08-19 |
KR20050002611A (ko) | 2005-01-07 |
EP1496466B1 (en) | 2007-11-07 |
DE602004009863D1 (de) | 2007-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4466951B2 (ja) | 立体結合顔形状の位置合わせ | |
Dai et al. | A 3d morphable model of craniofacial shape and texture variation | |
Gerig et al. | Morphable face models-an open framework | |
JP7203954B2 (ja) | 顔姿勢推定/3次元顔再構築方法、装置、及び電子デバイス | |
US7643685B2 (en) | Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery | |
US7876931B2 (en) | Face recognition system and method | |
US9619704B2 (en) | Fast articulated motion tracking | |
JP4234381B2 (ja) | 顔の特徴を位置確認するための方法及びコンピュータープログラム製品 | |
US9400921B2 (en) | Method and system using a data-driven model for monocular face tracking | |
KR20050059247A (ko) | 3차원 안면 인식 | |
JP2008544404A (ja) | 薄板スプライン変換を用いて非剛体運動をモデル化するための直接的方法 | |
US7200269B2 (en) | Non-rigid image registration using distance functions | |
Cheung et al. | On deformable models for visual pattern recognition | |
Ocegueda et al. | Expressive maps for 3D facial expression recognition | |
Chen et al. | Single and sparse view 3d reconstruction by learning shape priors | |
Cootes | Statistical shape models | |
CN110990604A (zh) | 图像底库生成方法、人脸识别方法和智能门禁系统 | |
Amberg | Editing faces in videos | |
Efraty et al. | Towards 3D-aided profile-based face recognition | |
Dai | Statistical Modelling of Craniofacial Shape | |
Martins | Parametric face alignment: Generative and discriminative approaches | |
Unala et al. | Hearing Aid Design | |
Patel | 3D Morphable Models: Data Pre-Processing, Statistical Analysis and Fitting | |
Park | Manifold learning in computer vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070628 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070628 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090814 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100217 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4466951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140305 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |