JP2007109234A - 画像中の顔を認識する方法 - Google Patents

画像中の顔を認識する方法 Download PDF

Info

Publication number
JP2007109234A
JP2007109234A JP2006277796A JP2006277796A JP2007109234A JP 2007109234 A JP2007109234 A JP 2007109234A JP 2006277796 A JP2006277796 A JP 2006277796A JP 2006277796 A JP2006277796 A JP 2006277796A JP 2007109234 A JP2007109234 A JP 2007109234A
Authority
JP
Japan
Prior art keywords
illumination
face
image
shape
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006277796A
Other languages
English (en)
Other versions
JP4849460B2 (ja
Inventor
Jinho Lee
ジンホ・リー
Baback Moghaddam
ババック・モグハッダム
Hanspeter Pfister
ハンスピーター・フィスター
Raghu Machiraju
ラグ・マキラジュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/251,222 external-priority patent/US7609860B2/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2007109234A publication Critical patent/JP2007109234A/ja
Application granted granted Critical
Publication of JP4849460B2 publication Critical patent/JP4849460B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

【課題】照明、姿勢の変動による悪影響を受けない実用的な顔の認識方法を得る。
【解決手段】形状パラメータ及び姿勢パラメータを有するモーフィング可能なモデルが、画像中の顔に当てはめられて、顔の3次元モデルが構成される。この3次元モデルを用いて画像中の顔からテクスチャが抽出される。形状及びテクスチャは、バイリニア照明モデル内に投影されて、画像中の顔の照明基底が生成される。この画像中の顔の照明基底は、既知の顔の複数のバイリニア照明モデルの各々の照明基底と比較されて、画像中の顔が特定される。
【選択図】図1

Description

[発明の分野]
本発明は、包括的にはコンピュータビジョンに関し、特に画像中の顔の認識に関する。
[発明の背景]
顔認識システムの性能は、照明及び姿勢の変動による顔の外観の変化に悪影響を受ける。1つの支配的な傾向は、人間の顔の3D形状情報を利用して、従来の2D画像の制限を克服することである。3D形状情報は、レンジスキャナから直接得るか、又は1枚若しくは複数の画像から推定することができる。3D幾何形状データを取得する費用は減ってきているが、ほとんどの既存の顔データベースは1枚の2D画像しか含まない。したがって、複数の画像データ又はレンジデータからよりも、1枚の2D画像から3D形状を得るほうが実用的である。
現在、顔認識に3D形状情報を使用する3つの異なる技法がある。1つ目は、3D形状を直接、姿勢/照明に依存しない署名として用いる。2つ目は、2D画像空間において姿勢/照明により変化しない(pose/illumination invariant)表現を生成するために、3Dデータを用いて様々な視点及び照明条件下で合成イメージを生成する。3つ目は、3D形状を用いて、球面調和関数によりランバート物体の分析照明部分空間を導出する。
例えば、1つ目の手法はモーフィング可能なモデルに象徴される(V.ブランツ(Blanz)及びT.フェッター(Vetter)著「Face recognition based on fitting a 3D morphable model」(IEEE Transactions on Pattern Analysis and Machine Intelligence, 25(9): 1063-1074, 2003))。ブランツ他は、1枚の画像から顔の3D形状及び2Dテクスチャを得てモデルを構成する。プローブ画像及びギャラリー画像のモデルは、それぞれの主成分分析(PCA)係数に基づいて直接照合される。この技法は、変動する姿勢及び照明に対処する。しかし、この技法は、顔のランドマークの慎重な手動での初期化を必要とするとともに、反復的な非線形最適化技法を当てはめに使用し、これは、収束したとしても数分かかる可能性があり、その上、極小値にしか収束しない。したがって、この顔の取り込み/モデリング手法をリアルタイムの顔認識に使用できるかどうかは定かでない。
2つ目の技法及び3つ目の技法は定性的に異なり、2Dの外観に基づくモデリングに関する初期の研究を起源とする「或る部分空間からの距離」という一般的な認識パラダイムに関連する。これら2つの手法もまた3Dのモーフィング可能なモデルを使用することができるが、それはほとんどの場合に、認識のための表現の最終的な選択ではなく、後の変化しないモデリング及び部分空間の生成のためのツールの形態をとる。
線形部分空間を生成して顔の照明の変動を取得するためのいくつかの方法が既知である。1つの方法は、照度差ステレオ画像を用いて、異なる照明下の7枚の正面画像から顔の3D幾何形状及び反射係数を再構成する(A.S.ゲオルギアデス(Georghiades)、P.N.ベルミュール(Belhumeur)、及びD.J.クリーグマン(Kriegman)著「From few to many: Illumination cone models for face recognition under variable lighting and pose」(IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(6):643-660, 2001))。その後、推定した3Dの顔を用いて、様々な姿勢及び照明条件から合成画像を描画し、人物特有の照明錐を訓練することができる。
別の方法は同様の「ショートカット」を使用する(R.バスリ(Basri)及びD.ジェイコブズ(Jacobs)著「Lambertian reflectance and linear subspace」(IEEE Transaction on Pattern Analysis and Machine Intelligence, 25(2):218-233, 2003))。バスリ他は、9枚の高調波画像が張る低次元線形部分空間によって凸ランバート3D物体の任意の照明が近似されるはずであると記している。9枚の高調波画像は、面法線及び反射係数が与えられれば分析により求めることができる。
より実用的な変形が、K.リー、J.ホー(Ho)、及びD.クリーグマン著「Nine points of light: Acquiring subspaces for face recognition under variable lighting」(Proc. of Computer Vision & Pattern Recognition, volume. 1, pages. 519-526, 2001)に記載されている。リー他は、9枚の高調波画像の張る空間(span)を近似するための点光源の9つの方向を経験的に求める。これらの9枚の画像は顔認識に適しており、3D形状、例えば、面法線及び反射係数を必要としない。しかし、実際の動作環境では、全ての顔について9枚の画像を取得することが常に実用的であるとは限らない。
別の方法は、1枚の画像から9枚の高調波画像を推定する(L.チャン(Zhang)及びD.サマラス(Samaras)著「Face recognition under variable lighting using harmonic image exemplars」(Proc. Computer Vision & Pattern Recognition, pages I:19-25, 2003))。しかし、顔は正確にランバートでも完全に凸面でもない。したがって、球面調和関数には本質的に、特に球面反射率、影、相互反射及び表面下散乱を扱う場合に制限がある。球面調和関数はまた、「ブートストラップ」データセットを必要とする。
[発明の概要]
本発明は、多数の被写体から変動する照明条件下で測定された照明の統計量に基づいて任意の3Dの顔の照明部分空間を生成する。高次特異値分解(SVD)に基づくバイリニアモデルを用いて、パラメトリック3D顔モデルからの任意の形状パラメータが与えられた状態でコンパクトな照明部分空間を生成する。
入力画像から動的に変化する照明部分空間への距離の最小化に基づく当てはめ手順を用いて、1枚の写真から形状に特有の照明部分空間が再構成される。この再構成された照明部分空間は顔認識に用いられる。
本発明は、1枚の画像から3D形状を抽出することによって照明部分空間を構成する新規の方法を提案する。人間の顔の複雑な反射率特性を処理するために、3D表面の点と、様々な照明条件下での正確に整合された照明サンプルとの結合統計量から導出されるコンパクトな照明モデルを利用する。実験結果は、このモデルが、関連する分析モデルよりも優れた再構成及び認識性能を有することを示す。このモデルはさらに、姿勢間の外挿に優れている。Yale Face Database Bを用いたところ、本発明の方法は、1枚の画像から照明により変化しない顔表現を得るための計算が遥かに単純であるにもかかわらず、従来技術に(少なくとも)匹敵した。最後に、本発明の方法は、回復された3D形状と整合される再構成された照明基底を用いて、姿勢により変化しない認識を行う。
[好適な実施形態の詳細な説明]
図1及び図2は、本発明の1つの実施の形態による、顔のバイリニア照明モデルを生成する方法及びシステムを示す。複数のカメラ101が、顔105の多数の2D反射率画像102を取得110する。顔毎に、その顔の複数の画像を様々な姿勢又は視点、及び様々な方向の照明で取得する。顔毎に、スキャナ103が顔の3D形状104を取得120する。
図2に示すように、人物がジオデシックドーム202の形態の筒状フレーム内の椅子201に座る。デジタルカメラ101がフレームに取り付けられて、様々な視点から顔に向けられる。このドームは平行光源203も含む。本発明では、ドーム202に椅子201に面して半球状に取り付けられる16台のカメラ及び150個の光LEDを用いる。カメラ101及びスキャナ103の出力は、画像及び3D形状データを処理するプロセッサ200に接続される。
動作中、システムは、各ライトを順次オンにし、その一方で、カメラ101により2D画像102を同時に取得110する。本発明では、取得シーケンスを異なる露出設定で繰り返すことによって、高ダイナミックレンジ(HDR)画像も取得することができる。
ドーム内に取り付けられる顔スキャナ103は、2つの構造化された投光機及び4台のカメラを含む。このスキャナの出力は、約40,000個の三角形を含むポリゴンメッシュである。このメッシュは、1mmもの小さな特徴を分解する。このメッシュは、顔以外の領域を除去し三角形を縮退させるためにクロッピングする(cropping:画像の切り抜き)。
次に、ループ再分割を用いてメッシュを精緻化する(ループ(Loop)著「Smooth Subdivision Surfaces based on Triangles」(Master's thesis, Department of Mathematics, University of Utah, 1987))。その結果、500,000個〜100万個の頂点を有する高解像度メッシュが得られる。この再分割は暗示的にノイズを除去する。
本発明では、高解像度メッシュを点サンプル、すなわち接続性のないサーフェルの非構造化リストに変換する(フィスター(Pfister)他に対し2002年1月29日付で発行された米国特許第6,342,886号「Method for interactively modeling graphical objects with linked and unlinked surface elements」(参照により本明細書中に援用される))。各サーフェルは、EWAスプラッティング(ツビッカー(Zwicker)他、2002年)を用いた画像の再構成に必要な情報を格納する。
全てのカメラの内部パラメータ及び外部パラメータを較正し、3D−2D整合プロセスにより顔の3D点を各画像102中の対応する2D点に投影する。
バイリニア照明モデル
本発明では先ず、画像及び3D形状を用いて、全ての顔105について3Dの点間対応131を得る130。各反射率画像102からの照明サンプル、すなわち画素強度を顔上の3Dサンプル点から投影し、整合された、よって3D形状104と位置合わせされた2Dサンプルを得る。
本発明ではまた、顔毎の拡散テクスチャ141を、その顔の全ての画像から求める140。顔のテクスチャは形状及び反射率とつながっていないものと仮定して、本発明では、次式に従って拡散テクスチャを照明サンプルから除外する。
Figure 2007109234
ここで、ベクトルtハットは照明サンプルであり、tは、N個の点を有するメッシュ中の3D点pにおける拡散テクスチャである。テクスチャのない照明成分はwであり、これは影も含むため、単なる反射率とは異なる。本発明の表記において、変数の上のベクトル記号「^(ハット)」及び推定記号「〜(チルダ)」はしばしば省略される。また、数式における太字の変数は、全般的に、ベクトル及び行列である。
顔毎の結果として、顔105の3D形状点(x,y,z)、及び特定の視点又は姿勢からの照明条件(j)毎のテクスチャのない照明成分(w)が得られる。
図3に示すように、本発明では、全ての顔の3Dの点間対応(x,y,z)及びテクスチャ成分wを強度軸301、照明軸302、及び形状軸303に沿って次のベクトル151に位置合わせ150する。
i,j=(x,・・・,x,y,・・・,y,z,・・・,z,w,・・・,w
図4に示すように、本発明では次に、3モード(three-mode)高次特異値分解(SVD)をベクトル151に適用410して、形状及び照明の両方の結合変動を求める。結果として得られるデータ配列は、次のような積として表されるテンソルD411である。
D=C×××
ここで、モード行列U、U、及びUはそれぞれ形状軸、照明軸、及びデータ軸に沿った変動を表す。コアテンソルCはモード行列間の相互作用を支配する。モードkの積演算子×に関する詳細については、L.D.ラソワー(L.D. Lathauwer)、B.D.ムーア(B.D. Moor)、及びJ.バンデワーレ(J. Vandewalle)著「A Multilinear Singular Value Decomposition」(SIAM Journal of Matrix Analysis and Applications, vol. 21, no. 4, 2000)を参照のこと。
モードkの積の結合的特性を用いて、モード行列UをZ=C×に組み込み、結果として、次のような簡略化された2モード式を得ることができる。
D=Z××
次に、本発明では、形状基底ベクトル及び照明基底ベクトル431を次のように求める430。よりコンパクトな表現を得るために、本発明では、最高次の特異ベクトルを削除するか又は切り捨て、縮小された低次元部分空間を保持する。
形状データの冗長性、すなわち照明軸302に沿った(x,y,z)の組を利用するために、本発明では、推定コアテンソルZチルダを2つの部分に分割する。したがって、i番目の形状条件及びj番目の照明条件を有するデータベクトルdチルダ421は次式によって推定420される。
Figure 2007109234
基礎となる形状104は照明条件(j)に無関係であるため、本発明では、あらゆるjの推定Zxyzチルダxj を事前に決め、シングルトン次元(singleton dimension)を除去し、形状基底行ベクトルZを得る。また、Zチルダx を推定するとともにシングルトン次元を除去することによって形状特有の照明基底Rを得る。したがって、式1は次のようになる。
Figure 2007109234
ここで、u ハット及びu ハットの推定値はそれぞれdi,jチルダの形状係数及び照明係数である。
形状基底ベクトルZ及び照明基底ベクトルZチルダ431、並びに、形状パラメータα442の一次結合を用いて、本発明では、対応する形状基底及び照明基底441を次のように再構成440することができる。
Figure 2007109234
ここで、sは形状ベクトル(x,y,z)であり、照明基底Rの行は特定の形状パラメータα442の照明基底ベクトルである。
形状パラメータαは式5によって説明することができるが、任意の形状sを3D形状104以外の外部供給源から供給できる場合がある。このような場合、以下の線形系を解くことによって、形状sを当てはめて、本発明の形状に最も近い形状パラメータαを求めることができる。
Figure 2007109234
本発明では、この技法を用いて、後述のように、モーフィング可能なモデルのような標準的な外部形状から照明部分空間を推定する。
9つの球面調和関数との比較
1つの正面に近いカメラ視点から取得したデータを用いて本発明のバイリニア照明モデル441を生成することにより、本発明では、このバイリニア照明モデルの部分空間が元データをどれだけ正確に再構成できるかを判断する。本発明ではまた、本発明の精度を、9つの球面調和関数を基底画像として用いること(上記のバスリ他を参照)によって得られる精度と比較する。
本発明では、多数の顔について複数の照明条件及び視点からの3D形状サンプル及び3D照明サンプルのグランドトルース(ground truth)を有するため、各方法について異なる数の基底から再構成誤差を測定する。
顔i毎に、全ての照明条件j及びカメラ視点kについて3D形状s、拡散テクスチャt、及び照明サンプルti,j,kハットを有する。照明サンプルのいくつかは、遮蔽のために各視点について取得できない。したがって、本発明では、有効なサンプルのみを含むあらゆるベクトルに表記tチルダを用いる。
ベクトルs及びtチルダが与えられ、指数を省略した状態で、先ず本発明の方法を用いて、次に9枚の高調波画像を用いて照明基底Rを求める。次に、拡散テクスチャtに行列Rの各列を成分毎に掛ける。これにより、テクスチャにより重み付けされた照明基底Bを構成し、tチルダの再構成誤差は、
Figure 2007109234
となる。ここで、BハットはBチルダのQR分解であり、tチルダに対応するBの有効な行のみを含む。本発明では、各方法について、被写体、照明条件、カメラ視点、及び再構成に使用された基底の数の全ての組み合わせの再構成誤差を求め、照明部分空間を生成する。
図5は、異なる数の基底の再構成誤差を比較し、図6は異なる数のカメラ視点の再構成誤差を比較する。
1枚の画像からの推定
次に、顔の1枚の入力画像が与えられた状態で顔特有の照明部分空間、すなわち照明基底を得る方法を説明する。モーフィング可能なモデルを入力画像に当てはめた後で、本発明のバイリニア照明モデルから照明基底を導出する。これは、当てはめたモデルの3次元形状と、入力画像から抽出したテクスチャとをバイリニア照明モデル内に投影して、顔特有の照明基底を生成することによって達成される。
形状特有の照明部分空間
本発明では、各顔形状毎にベクトルsを、各対応するテクスチャ毎にベクトルtを構成する。形状ベクトルS及びテクスチャベクトルTに対して主成分分析(PCA)を別々に行う。次に、最初のM個の固有ベクトル並びにモデルパラメータα及びβを用いて、次式に従って任意の形状及びテクスチャを再構成することができる。
Figure 2007109234
ここで、平均形状はSバーであり、平均テクスチャはTバーであり、形状のi番目の固有ベクトルはe であり、テクスチャの固有ベクトルはe である。
最適化パラメータはα、β、及びγを含む。パラメータγは6次元姿勢パラメータであり、そのうち3次元は平行移動、3次元は回転を示す。各反復中、本発明では、パラメータα及びβ、並びにγから形状(s)及び拡散テクスチャ(t)を生成する。また、sを所与の姿勢γの入力画像に投影することによってテクスチャtハットを抽出する。式7と同様の誤差関数を最小化することによって最適パラメータを求める。
本発明では、テクスチャベクトルtハットの代わりに、抽出されたテクスチャの可視点のみを含む推定テクスチャtチルダを用いる。本発明では、滑降シンプレックス法を用いて以下の最適化を解く。
Figure 2007109234
よく知られた滑降シンプレックス法は、勾配を求めることなく費用関数を評価することができる非線形最適化プロセスである。
本発明のモデルは、最適化中に適応的な照明部分空間を使用するため、最終的に再構成される形状及びテクスチャは、両方法で同じである必要はない。この最適化フレームワークによって推定される形状パラメータ、テクスチャパラメータ、及び姿勢パラメータは再構成において重要であるが、本発明の主な関心は、照明基底Boptの最適な特徴づけである。これらの基底は、形状s(αopt)及び拡散テクスチャt(βopt)を有する人物の照明部分空間を張る。
しかし、合成テクスチャでは、元の入力画像中の顔の細部の全てを取り込むことができない。顔認識の目的では、実際のテクスチャにより重み付けされた照明基底を得ることが重要である。
本発明では、以下の論考において下記の表記を用いる。
:合成の拡散テクスチャ(既知)
ハット:合成の照明されたテクスチャ(既知)
:実際の拡散テクスチャ(未知)
ハット:実際の照明されたテクスチャ(既知)
Figure 2007109234
をベクトルbとAの全ての列ベクトルとの成分毎の乗算として、
Figure 2007109234
をベクトルbの、Aの全ての列ベクトルでの成分毎の除算として定義する。
各反復中、照明基底が先ず
Figure 2007109234
によって求められ、tをtで置き換えることによって、次のような新たな基底が得られる。
Figure 2007109234
本発明により推定される照明が元の照明を近似すると仮定すると、次式が得られる。
Figure 2007109234
最後に、式12を式11に代入することによって次式が得られる。
Figure 2007109234
顔認識のための照明基底
図7は、本発明による、入力プローブ画像701中の顔を認識する方法700を示す。プローブ画像にモーフィング可能なモデル712を当てはめて710、プローブ画像701中の顔の3次元モデル711を構成する。この3次元モデルは形状パラメータ及び姿勢パラメータを有する。3次元モデルを用いて、3次元形状sを所与の姿勢γの入力画像に投影することによって、プローブ画像701からテクスチャを抽出720する。3次元形状及び抽出したテクスチャ721を、バイリニア照明モデル(BIM)725内に投影730して、プローブ画像中の顔の、実際のテクスチャにより重み付けされた照明基底731を生成する。これらの照明基底731を既知の顔のバイリニア照明モデルのギャラリー735の各々の照明基底と比較740して、入力画像中の顔との一致741を特定する。この一致741は、ギャラリーからの、プローブ画像中の顔の照明基底731への距離が最小である照明基底を有するバイリニア照明モデルに対応する既知の顔である。任意で、投影された3次元形状を、ギャラリー中の既知の顔のバイリニア照明モデルの各々の再構成された形状と比較して、プローブ画像中の顔を特定することもできる。
一般的なベクトル空間の照明基底は、姿勢により変化しない顔認識に有用であるが、1つの欠点がある。抽出されるテクスチャは全て、形状のないベクトル空間において整合されるため、照合のための形状情報を全て失ってしまう。テクスチャが重要な同一性の手掛かりであることは一般的に認められているが、3D形状は極端な照明条件において重要性を増す。
ほとんどの顔認識システムにおいて、プローブ画像及びギャラリー画像は、目の位置のみを用いて位置合わせされることが多く、それに応じて他の顔領域が変換される。形状情報は、暗黙的に又は明示的に利用される。したがって、形状のない3D空間ではなく2D画像空間に照明基底を有するほうが実用的であることが多い。
先ず、3D形状と整合された基底を、対応する再構成された照明サンプルで割り
Figure 2007109234
、画像の当てはめを行う画像平面に投影する。投影した画像データを、画像平面においてプッシュプル補間を用いて密に計算し、元の画像を掛ける。この手順は再構成された基底毎に行われる。
[発明の効果]
本発明は、1枚の画像から3D形状を抽出することによって照明部分空間を構成する新規の方法を提案する。人間の顔の複雑な反射率特性を処理するために、3D表面の点と、様々な照明条件下での正確に整合された照明サンプルとの結合統計量から導出されるコンパクトな照明モデルを利用する。実験結果は、このモデルが、関連する分析モデルよりも優れた再構成及び認識性能を有することを示す。このモデルはさらに、姿勢間の外挿に優れている。Yale Face Database Bを用いたところ、本発明の方法は、1枚の画像から照明により変化しない顔表現を得るための計算が遥かに単純であるにもかかわらず、従来技術に(少なくとも)匹敵した。最後に、本発明の方法は、回復された3D形状と整合される再構成された照明基底を用いて、姿勢により変化しない認識を行う。
本発明の精神及び範囲内で様々な他の適応及び修正を行ってもよいことが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るそのような変形及び修正をすべて網羅することである。
顔のバイリニアモデルを生成する方法のフロー図である。 顔の形状データ及び画像データを取得するシステムのブロック図である。 位置合わせされた形状点、及びベクトルとしてのテクスチャ成分のブロック図である。 図3のベクトルからバイリニアモデルを生成するフロー図である。 異なる数の基底の再構成誤差を比較するグラフである。 異なる数のカメラ視点の再構成誤差を比較するグラフである。 バイリニア照明モデルを用いて入力画像中の顔を認識するフロー図である。

Claims (1)

  1. 画像中の顔を認識する方法であって、
    形状パラメータ及び姿勢パラメータを有するモーフィング可能なモデルを画像中の顔に当てはめて、前記顔の3次元モデルを構成すること、
    前記3次元モデルを用いて前記画像中の前記顔からテクスチャを抽出すること、
    前記形状及び前記テクスチャをバイリニア照明モデル内に投影して、前記画像中の前記顔の照明基底を生成すること、及び、
    前記画像中の前記顔の前記照明基底を既知の顔の複数のバイリニア照明モデルの各々の照明基底と比較して、前記画像中の前記顔を特定すること
    を備えた、画像中の顔を認識する方法。
JP2006277796A 2005-10-14 2006-10-11 画像中の顔を認識する方法 Expired - Fee Related JP4849460B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/251,222 2005-10-14
US11/251,222 US7609860B2 (en) 2005-06-14 2005-10-14 Bilinear illumination model for robust face recognition

Publications (2)

Publication Number Publication Date
JP2007109234A true JP2007109234A (ja) 2007-04-26
JP4849460B2 JP4849460B2 (ja) 2012-01-11

Family

ID=38018761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006277796A Expired - Fee Related JP4849460B2 (ja) 2005-10-14 2006-10-11 画像中の顔を認識する方法

Country Status (2)

Country Link
JP (1) JP4849460B2 (ja)
CN (1) CN100412886C (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917911B2 (en) 2009-12-31 2014-12-23 Nokia Corporation Method and apparatus for local binary pattern based facial feature localization
US9792690B2 (en) 2014-06-20 2017-10-17 Ricoh Company, Ltd. Shape measurement system, image capture apparatus, and shape measurement method
CN110807833A (zh) * 2019-11-04 2020-02-18 成都数字天空科技有限公司 一种网状拓扑获得方法、装置、电子设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6312924B2 (ja) * 2015-03-27 2018-04-18 三菱電機株式会社 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体
CN105426902B (zh) * 2015-09-16 2019-06-25 西安印钞有限公司 基于形变复原技术的钞券质量检测系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157595A (ja) * 2000-11-20 2002-05-31 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2003006645A (ja) * 2001-06-20 2003-01-10 Secom Co Ltd 本人認証用の顔画像照合装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118627A (ja) * 2002-09-27 2004-04-15 Toshiba Corp 人物認証装置および人物認証方法
JP4082166B2 (ja) * 2002-10-09 2008-04-30 セイコーエプソン株式会社 光検出装置、プロジェクタ、光検出方法、プログラムおよび記録媒体
JP2005242582A (ja) * 2004-02-25 2005-09-08 Univ Waseda 顔検出装置およびその方法
JP4059224B2 (ja) * 2004-04-13 2008-03-12 株式会社デンソー 運転者の外観認識システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157595A (ja) * 2000-11-20 2002-05-31 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2003006645A (ja) * 2001-06-20 2003-01-10 Secom Co Ltd 本人認証用の顔画像照合装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917911B2 (en) 2009-12-31 2014-12-23 Nokia Corporation Method and apparatus for local binary pattern based facial feature localization
US9792690B2 (en) 2014-06-20 2017-10-17 Ricoh Company, Ltd. Shape measurement system, image capture apparatus, and shape measurement method
CN110807833A (zh) * 2019-11-04 2020-02-18 成都数字天空科技有限公司 一种网状拓扑获得方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP4849460B2 (ja) 2012-01-11
CN100412886C (zh) 2008-08-20
CN1949247A (zh) 2007-04-18

Similar Documents

Publication Publication Date Title
JP4925097B2 (ja) 顔のバイリニアモデルを生成する方法
US7609860B2 (en) Bilinear illumination model for robust face recognition
Aldrian et al. Inverse rendering of faces with a 3D morphable model
Yamaguchi et al. High-fidelity facial reflectance and geometry inference from an unconstrained image
Kakadiaris et al. Three-dimensional face recognition in the presence of facial expressions: An annotated deformable model approach
Gross et al. Appearance-based face recognition and light-fields
KR101007276B1 (ko) 3차원 안면 인식
US7426292B2 (en) Method for determining optimal viewpoints for 3D face modeling and face recognition
Smith et al. Facsimile: Fast and accurate scans from an image in less than a second
CN109684969B (zh) 凝视位置估计方法、计算机设备及存储介质
Lee et al. A bilinear illumination model for robust face recognition
WO2006129791A1 (ja) 画像処理システム、3次元形状推定システム、物体位置姿勢推定システム及び画像生成システム
JP4849460B2 (ja) 画像中の顔を認識する方法
Hofer et al. 3D shape recognition and reconstruction based on line element geometry
Galteri et al. Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks
Muhammad et al. Spec-Net and Spec-CGAN: Deep learning models for specularity removal from faces
Klein et al. A quantitative platform for non-line-of-sight imaging problems
Kumar et al. Non-Lambertian reflectance modeling and shape recovery of faces using tensor splines
Wu et al. [Retracted] 3D Film Animation Image Acquisition and Feature Processing Based on the Latest Virtual Reconstruction Technology
Lee et al. Estimation of 3D faces and illumination from single photographs using a bilineaur illumination model
JP2005317000A (ja) 最適な視点のセットで得られた2d画像からの顔の3d形状構築に最適な視点のセットを求める方法
Riaz et al. Age progression by gender-specific 3D aging model
Molnár et al. ToFNest: Efficient normal estimation for time-of-flight depth cameras
Ma et al. A lighting robust fitting approach of 3D morphable model for face reconstruction
KR102147061B1 (ko) 사용자의 주관적 선호도를 반영한 가상 얼굴 성형 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees