JP2007265396A - 顔モデルを生成する方法およびシステム - Google Patents
顔モデルを生成する方法およびシステム Download PDFInfo
- Publication number
- JP2007265396A JP2007265396A JP2007037983A JP2007037983A JP2007265396A JP 2007265396 A JP2007265396 A JP 2007265396A JP 2007037983 A JP2007037983 A JP 2007037983A JP 2007037983 A JP2007037983 A JP 2007037983A JP 2007265396 A JP2007265396 A JP 2007265396A
- Authority
- JP
- Japan
- Prior art keywords
- face
- mesh
- statistics
- image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
【課題】本発明は、しわおよび毛穴等の小さな3次元の顔特徴をモデリングするためのシステムおよび方法を提供する。
【解決手段】顔のスキャンが取得される。スキャンからポリゴンメッシュが構築される。ポリゴンメッシュが再パラメータ化されて、ベースメッシュおよび変位画像が求められる。変位画像は、複数のタイルに分割される。各タイルの統計値が測定される。統計値は、変更されて変位画像を変形させ、変形された変位画像がベースメッシュと結合されて新たな顔が合成される。
【選択図】図1
【解決手段】顔のスキャンが取得される。スキャンからポリゴンメッシュが構築される。ポリゴンメッシュが再パラメータ化されて、ベースメッシュおよび変位画像が求められる。変位画像は、複数のタイルに分割される。各タイルの統計値が測定される。統計値は、変更されて変位画像を変形させ、変形された変位画像がベースメッシュと結合されて新たな顔が合成される。
【選択図】図1
Description
本発明は、包括的にはコンピュータグラフィックスおよび人間の顔のモデリングに関し、特に、しわおよび毛穴等の微細な顔の特徴のモデリングに関する。
人間の顔のリアルなモデルの生成は、コンピュータグラフィックスにおける重要な問題である。顔モデルは、コンピュータゲーム、広告、映画、および仮想現実アプリケーションのアバター(avatar)に広く用いられている。目標は、顔の全ての表情をデジタルモデルに取り込むことである。Pighin他著「Digital face cloning」(SIGGRAPH 2005 Course Notes, 2005)を参照願いたい。
理想的には、顔モデルから生成される画像は、本物の顔の画像と見分けがつかないものであるべきである。しかし、顔のデジタルクローニングは、依然として、いくつかの理由から困難なタスクである。第1に、人間は、コンピュータ生成モデル中のアーティファクト(artifact)を容易に見つけることができる。第2に、顔の高解像度の幾何形状を取り込むことは、難しく高い費用がかかる。第3に、顔モデルの編集は、特に微細スケールの細部の変更が必要とされる場合に、依然として時間のかかる大部分が手動の仕事である。
しわおよび毛穴等の小さな顔特徴をモデリングすることは、特に難しい。しわは、皮膚の変形の過程により形成される皮膚のひだであり、毛穴は、皮膚表面に現れる大きく開いた腺孔である(Igarashi他著「The appearance of human skin」(Tech. Rep. CUCS-024-05, Department of Computer Science, Columbia University, June 2005))。
小さな特徴を有する高解像度の顔の幾何形状の取得は、難しく、そして費用および時間のかかる仕事である。市販の能動的または受動的な照度差ステレオシステムは、大きなしわのみを捉えるものであり、皮膚をよりリアルに見せる毛穴等の重要な小さな幾何学的細部は、全く捉えない。
レーザスキャンシステムは、細部を捉え得るかもしれないが、高価であり、かつ被写体が数十秒間じっと座っていることを必要とし、これは、多くの用途について非現実的である。さらに、結果として得られる3D幾何形状は、ノイズおよび動きアーティファクトのために、フィルタリングおよび平滑化されなければならない。最も正確な方法は、顔の石膏型を作り、正確なレーザ測距システムを用いて、この型をスキャンすることである。しかし、このプロセスに必要な膨大な時間および費用を全ての人がまかなえる訳ではない。また、モデリングコンパウンドは、顔特徴をたるませる場合がある。
コンピュータグラフィックスおよびコンピュータビジョンにおいては、顔をモデリングするための多数の方法が既知である。
モーフィング(画像変形)可能な顔モデル
1つの方法は、顔の合成に変分技法を用いる(DeCarlo他著「An anthropometric face model using variational techniques」(SIGGRAPH 1998: Proceedings, pp. 67-74, 1998))。考え得る顔の高い次元数と比べて測定データが疎であるために、合成される顔は、データベースをスキャンすることで生成される顔ほどもっともらしくはない。
1つの方法は、顔の合成に変分技法を用いる(DeCarlo他著「An anthropometric face model using variational techniques」(SIGGRAPH 1998: Proceedings, pp. 67-74, 1998))。考え得る顔の高い次元数と比べて測定データが疎であるために、合成される顔は、データベースをスキャンすることで生成される顔ほどもっともらしくはない。
別の方法は、主成分分析(PCA)を用いて、顔スキャンのデータベースからモーフィング可能な顔モデルを生成する(Blanz他著「A morphable model for the synthesis of 3D faces」(SIGGRAPH 1999: Proceedings, pp. 187-194, 1999))。この方法は、多重線形顔モデルに拡張された(Vlasic他著「Face transfer with multi-linear models」(ACM Trans. Graph. 24, 3, pp. 426-433, 2005))。モーフィング可能なモデルは、写真またはビデオからの3Dの顔の再構成にも用いられている。
しかし、現在の線形または局所線形のモーフィング可能なモデルは、高解像度顔モデルの分析および合成に直接適用することができない。高解像度顔モデルの次元数、すなわち、固有ベクトルの長さは、非常に大きく、小さな顔の細部を取り込むには、膨大な量のデータが必要である。さらに、モデルの構築中に、全ての入力される顔の高解像度の細部間の正確な対応関係を見出すことは、難しいか、または不可能であろう。正確な対応関係がなければ、これらの方法により行われる加重線形ブレンディングにより、小さな顔特徴がブレンドされ、結果の見た目が不自然に滑らかになってしまう。
物理的/幾何学的なしわモデリング
他の方法は、皮膚のひだを直接、物理モデル化する(Wu他著「A dynamic wrinkle model in facial animation and skin ageing」(Journal of Visualization and Computer Animation, 6, 4, pp. 195-206, 1995)、およびWu他著「Physically-based wrinkle simulation & skin rendering」(Computer Animation and Simulation '97, Eurographics, pp. 69-79, 1997))。しかし、これらのモデルは、制御し難く、もっともらしさの点で高解像度スキャンに適合し得る結果を生成しない。
他の方法は、皮膚のひだを直接、物理モデル化する(Wu他著「A dynamic wrinkle model in facial animation and skin ageing」(Journal of Visualization and Computer Animation, 6, 4, pp. 195-206, 1995)、およびWu他著「Physically-based wrinkle simulation & skin rendering」(Computer Animation and Simulation '97, Eurographics, pp. 69-79, 1997))。しかし、これらのモデルは、制御し難く、もっともらしさの点で高解像度スキャンに適合し得る結果を生成しない。
しわもモデリングすることができる(Bando他著「A simple method for modeling wrinkles on human skin」(Pacific Conference on Computer Graphics and Applications, pp. 166-175, 2002)、およびLarboulette他著「Real-time dynamic wrinkles」(Computer Graphics International, IEEE Computer Society Press, 2004))。このような方法は、通常、ユーザにしわ領域を描かせ、かつ調節機能を選択させることで進む。次に、ベースメッシュが長さを保つように変形する際に、しわの深さが調節される。これは、ユーザ制御が可能であり、例えば、額を横断する長く深いしわによく適している。しかし、ユーザがリアルなしわの集合を生成することは難しく、これらの方法は、毛穴および他の微細スケールの皮膚特徴に対応しない。
テクスチャ合成
主な2種類のテクスチャ合成方法として、マルコフ形テクスチャ合成およびパラメトリックテクスチャ合成がある。
主な2種類のテクスチャ合成方法として、マルコフ形テクスチャ合成およびパラメトリックテクスチャ合成がある。
マルコフ形テクスチャ合成方法は、テクスチャ画像をマルコフランダムフィールドとして扱う。合成すべきパッチまたは画素の近傍に適合する近傍を有する領域を求めてサンプルテクスチャを探索することによって、画像がパッチ毎または画素毎に構築される。この方法は、低解像度画像および高解像度画像のサンプル対を用いて低解像度画像から高解像度画像を生成する超解像フィルタを含む多数の用途に拡張された(Hertzmann他著「Image analogies」(SIGGRAPH '01: Proceedings, pp. 327-340, 2001))。マルコフ形方法は、顔の様々なエリアで撮影された小さなサイズのサンプルから微細スケールの法線マップを成長させるための顔の幾何形状の生成にも用いられている。
パラメトリック法は、サンプルテクスチャから一組の統計値を抽出する。合成は、ノイズ画像から開始し、これを統計値に合わせていく。最初の方法は、Heeger他著「Pyramid-based texture analysis/ synthesis」(SIGGRAPH '95: Proceedings, pp. 229-238, 1995)(参照により本明細書中に援用される)に記載された。選択される統計値は、画像の可動型ピラミッド(steerable pyramid)のヒストグラムであった。より大きく複雑な一組の統計値を用いて、より多様なテクスチャを生成することができる(Portilla他著「A parametric texture model based on joint statistics of complex wavelet coefficients」(Int. Journal of Computer Vision 40, 1, pp. 49-70, 2000))。
詳細な表面幾何形状は、3D顔モデルの視覚的リアリズムに大きく寄与する。しかし、高解像度の顔モデルを取得することは、面倒で高い費用がかかることが多い。その結果、ゲーム、仮想現実シミュレーション、またはコンピュータビジョンアプリケーションに用いられるほとんどの顔モデルは、非現実的に滑らかに見える。
本発明の実施の形態は、しわおよび毛穴等の小さな3次元の顔特徴をモデリングする方法を提供する。高解像度の顔の幾何形状を取得するために、広範な年齢、性別、および人種にわたる顔がスキャンされる。
スキャン毎に、変位された細分割表面を用いて、皮膚表面の細部が滑らかなベースメッシュから分離される。次に、結果として得られた変位マップが、1つの顔にわたって空間的に変化する統計値を取り込むようになっているテクスチャ分析・合成フレームワークを用いて分析される。抽出された統計値は、任意の被写体の顔メッシュにもっともらしい細部を合成するために用いることができる。
本方法は、年齢および性別の異なる被写体の顔テクスチャの分析、高解像度の顔スキャン同士の補間、低解像度の顔スキャンへの細部の追加、および顔の見かけ年齢の調節を含むいくつかの用途に対して有効である。本方法は、高解像度スキャンに見られるものと一致する微細な幾何学的細部を再現することができる。
顔を粗いベースメッシュと詳細な変位画像とに分離すること、詳細な画像の統計値を抽出すること、およびその後、抽出された統計値に基づいて微細な細部を有する新たな顔を合成することによって顔の幾何形状を分析および合成する方法を記載する。
本方法は、高解像度の顔スキャンの分析に基づく微細な幾何学的顔特徴の統計モデル、幾何学的細部を空間的に変化させるためのパラメトリックなテクスチャ分析および合成方法の拡張、研究団体に利用可能にされるサンプル集団の詳細な顔統計値のデータベース、新たな応用(低解像度顔モデルへのもっともらしい細部の導入、並びに年齢および性別に応じた顔スキャンの調整を含む)、並びに分析することのできる統計値を提供するパラメトリックモデルを提供する。本発明では、分析を行い、複数のグループの統計値を比較し、合成している細部についてある程度の理解を得ることができる。これにより、より簡単かつ直接的な統計値も可能になる。
図1および図2に示すように、本発明は、人間の顔の微細な細部を分析、モデリングおよび合成する方法を提供する。本方法への入力は、本物の顔102の多数のスキャン101である。これらのスキャンは、顔の3次元幾何形状、および画像の形態のテクスチャを含む。本物の顔102は、年齢、性別、および人種の変動を含む。各スキャン101を分析し(200)、パラメトリックテクスチャモデル400を構築する。このモデルは、メモリ410に記憶することができる。その場合、モデルは、後に、合成顔画像321の合成(300)に用いることができる。分析は、各顔スキャンにつき1回だけ行えばよい。合成は、任意の回数だけ、また様々な用途について行うことができる。
分析(200)は、本物の各顔の高解像度スキャン101から開始して、例えば、50万個の三角形を有するポリゴンメッシュ211を構築する(210)。このメッシュを再パラメータ化し(220)、ベースメッシュ221と変位画像222とに分離する。変位画像222をタイル231に分割する(230)。各タイルについて統計値241を測定する(240)。
合成(300)は、統計値241を変更して変位画像222を調節する(310)。調節された変位画像311を、次にベースメッシュ221と結合して(320)合成顔画像321を形成する。
データ取得
本発明では、年齢、性別および人種に変動のある多数の被写体について、高解像度の顔スキャンを取得する。各被写体は、データの取得中に頭を動かさないでおくために、ヘッドレスト付きの椅子に座る。本発明では、市販の顔スキャナを用いて、完全な3次元の顔の幾何形状を取得する。出力メッシュは、40k個の頂点を含み、手動でクロッピングされ、不要な成分が除去される。次に、本発明では、Loop細分割を用いてメッシュを約700k個の頂点に精緻化する。結果として得られるメッシュは、微細な顔の細部を分解するには滑らか過ぎる。
本発明では、年齢、性別および人種に変動のある多数の被写体について、高解像度の顔スキャンを取得する。各被写体は、データの取得中に頭を動かさないでおくために、ヘッドレスト付きの椅子に座る。本発明では、市販の顔スキャナを用いて、完全な3次元の顔の幾何形状を取得する。出力メッシュは、40k個の頂点を含み、手動でクロッピングされ、不要な成分が除去される。次に、本発明では、Loop細分割を用いてメッシュを約700k個の頂点に精緻化する。結果として得られるメッシュは、微細な顔の細部を分解するには滑らか過ぎる。
被写体は、また、複数のカメラおよびLEDを有するジオデシックドーム内に置かれる。Weyrich他により2005年3月29日付で出願された米国特許出願第11/092,426号「Skin Reflectance Model for Representing and Rendering Faces」(参照により本明細書中に援用される)を参照願いたい。このシステムは、各LEDを順次点灯し、それと同時に、16台のカメラを用いて異なる視点から画像を取り込む。これらの画像は、顔のテクスチャを取り込む。画像データを用いて、本発明では、メッシュの幾何形状を精緻化し、照度差ステレオ処理を用いて高解像度の法線マップを求める。本発明では、高解像度の法線を低解像度の幾何形状と結合し、法線場のバイアスを明らかにする。結果として、サンプル間隔が約0.5mmで低ノイズ(例えば0.05mm未満)の高解像度(500kポリゴン)の顔メッシュ211が得られ、この顔メッシュ211は、しわおよび毛穴等の微細な幾何学的細部を正確に取り込む。
再パラメータ化
再パラメータ化のために、本発明では、顔スキャナから得た出力メッシュ間の頂点の対応関係を求める。本発明では、顔画像中の多数の特徴点(例えば、21個の特徴点)を手動で定義する。事前に定義された接続関係により、特徴点は、「マーカー」メッシュ212を形成し、これにより、全ての顔が厳密に位置合わせされる。マーカーメッシュ212は、細分割されて法線の方向で元の顔スキャンに数回再射影され、元のスキャンのより正確な近似を連続的に生じる。顔メッシュは、マーカーメッシュと比べて滑らかであるため、自己交差が生じる。
再パラメータ化のために、本発明では、顔スキャナから得た出力メッシュ間の頂点の対応関係を求める。本発明では、顔画像中の多数の特徴点(例えば、21個の特徴点)を手動で定義する。事前に定義された接続関係により、特徴点は、「マーカー」メッシュ212を形成し、これにより、全ての顔が厳密に位置合わせされる。マーカーメッシュ212は、細分割されて法線の方向で元の顔スキャンに数回再射影され、元のスキャンのより正確な近似を連続的に生じる。顔メッシュは、マーカーメッシュと比べて滑らかであるため、自己交差が生じる。
微妙な問題は、正しい細分割戦略を選択することである。補間細分割方式を用いる場合、マーカーの頂点は、定位置に留まり、結果として得られるメッシュは、比較的正確な頂点毎の対応関係を有する。しかし、バタフライ細分割(butterfly subdivision)は、メッシュをつぶす傾向があり、線形細分割は、導関数に不連続点を有するパラメータ化を生成する。Loop細分割等の近似法は、頂点を移動させ対応関係を悪化させるという代償を払って、より円滑なパラメータ化を生じる(Loop著「Smooth Subdivision Surfaces Based on Triangles」(Master's thesis, University of Utah, 1987)(参照により本明細書中に援用される))。細分割方式の選択は、円滑なパラメータ化と、より良好な対応関係との間のトレードオフを提供する。
近似方式では、最初の数回の細分割により頂点が最も遠くへ移動するため、本発明では、2回の線形細分割を用いた後に、2回のLoop細分割を用いる。これによりメッシュ211が得られ、このメッシュ211から、残りの顔の細部を取り込むスカラー変位画像222を求める。Lee他著「Displaced subdivision surfaces」(SIGGRAPH '00: Proceedings, pp. 85-94, 2000)(参照により本明細書中に援用される)を参照願いたい。
具体的には、本発明では、メッシュ211をLoop細分割により3回細分割する。これにより、本明細書において、ベースメッシュ221と呼ぶ粗く滑らかなメッシュが得られる。このベースメッシュを元の顔に射影し、変位画像を各頂点におけるこの射影の長さにより定義する。これを画像にマッピングするために、事前に定義された方法で矩形にマッピングされたマーカーメッシュ212から開始し、その矩形において細分割シーケンスをたどる。
本発明では、変位画像を1024×1024個のサンプル、すなわち、画素強度で表す。変位画像は、本質的に、顔のテクスチャを取り込む。1つの分割された変位画像222を図3に示す。
統計値の抽出
顔変位画像の微細な細部を測定して(240)統計値を得る。本発明の目的は、変位を十分な精度で表現し、新たな顔への細部の合成(300)に適したコンパクトなモデルにおいて、しわおよび毛穴を保持することである。
顔変位画像の微細な細部を測定して(240)統計値を得る。本発明の目的は、変位を十分な精度で表現し、新たな顔への細部の合成(300)に適したコンパクトなモデルにおいて、しわおよび毛穴を保持することである。
本発明の統計方法は、画像に一般に用いられるテクスチャ合成技法の拡張である。Heeger他に従って、画像中のサンプルテクスチャの可動型ピラミッドのヒストグラムを抽出し、テクスチャが有する様々な成分をいくつかのスケールおよび向きで取り込む。Simoncelli他著「The steerable pyramid: a flexible architecture for multi-scale derivative computation」(ICIP '95: Proceedings, International Conference on Image Processing, vol. 3, 1995)(参照により本明細書中に援用される)を参照願いたい。従来の方法を直接適用することにより、各顔について一組のグローバル統計値が定義されるが、顔の細部の統計値は、空間的に変化するため、そのままでは役立たない。本発明では、画像タイル231の統計値を取り出して、空間的変動を取り込むという変更を行う。具体的には、本発明では、画像を16×16の格子状になった256個のタイルに分解し、可動型ピラミッドを各タイルについて4つのスケールおよび4つの向きで構築する。本発明では、テクスチャのローパス残差(residue)ではなく、テクスチャのハイパス残差を考慮し、これを取り出してベースメッシュの部分とする。これにより、17個のフィルタ出力が生じる。
図4は、タイルの2×2部分の2つのスケールのヒストグラム401およびフィルタ出力を示す。輪郭を描いた2×2部分のフィルタ応答およびヒストグラムを示す。全ての向きおよび2つのスケールを示す。より多くの成分を有するタイルのヒストグラム403は、より少ない成分を有するタイルのヒストグラム402よりも幅が広い。
これらのヒストグラムは、大量のデータを含むため、その記憶、分析、補間、およびレンダリングは、面倒である。しかし、様々な顔の同一タイル内のヒストグラム間の主な差異は、幅であることに気付く。よって、本発明では、各ヒストグラムをその標準偏差により近似する。これにより、データを大幅に圧縮することができる。顔の統計値は、128ビンを用いた場合のヒストグラムにおける128×17×16×16=557,056個のスカラー、および元の画像の1024×1024=1,048,576個のスカラーに対して、各フィルタ応答における各タイルにつき1つのスカラー、すなわち17×16×16=4,352個のスカラーを含む。これらの縮小された統計値から合成される顔は、完全なヒストグラムの組を用いて合成される顔と視覚的に見分けがつかない。
この縮小された統計値の組は、記憶域および処理時間を削減するだけでなく、1つの顔にわたって、また顔の集団にわたって統計値がどのように変化するかについて、より容易な視覚化およびより良い理解も可能にする。例えば、各スケールおよびタイルについて、全てのフィルタ方向の標準偏差を、各方向について計算された標準偏差により、その方向に展開された円として描くことができる。
図5は、そのような、ピラミッドの第2のスケール(512×512画素)の展開した円500による視覚化を示す。
合成
統計値を用いて顔の細部を合成する。Heeger他は、これを以下のように達成する。サンプルテクスチャをその可動型ピラミッドに展開する。合成すべきテクスチャは、ノイズから開始し、同様に展開する。次に、合成テクスチャの各フィルタのヒストグラムをサンプルテクスチャのヒストグラムと照合し、合成テクスチャのピラミッドを折りたたみ再び展開する。可動型ピラミッドは、過完備基底を形成するため、出力が個別に調節される場合、ピラミッドを折りたたむことおよび展開することによりフィルタ出力が変化する。しかし、この手順を数回繰り返すと収束する。
統計値を用いて顔の細部を合成する。Heeger他は、これを以下のように達成する。サンプルテクスチャをその可動型ピラミッドに展開する。合成すべきテクスチャは、ノイズから開始し、同様に展開する。次に、合成テクスチャの各フィルタのヒストグラムをサンプルテクスチャのヒストグラムと照合し、合成テクスチャのピラミッドを折りたたみ再び展開する。可動型ピラミッドは、過完備基底を形成するため、出力が個別に調節される場合、ピラミッドを折りたたむことおよび展開することによりフィルタ出力が変化する。しかし、この手順を数回繰り返すと収束する。
この従来技術のプロセスは、本発明の縮小された空間的に変化する統計値の組を使用するように変更する必要がある。ヒストグラム照合ステップを、標準偏差の照合に置き換える。このステップでは、特定の画素が、4つの異なる値を示唆する4つの近傍タイルを有することになる。本発明では、これらの4つの値間で双線形補間を行う。次に、上記のように、ピラミッドを折りたたみ、展開し、反復的に繰り返すことを続ける。
このように双線形補間により標準偏差を調節しても、合成されるタイルは、ターゲットタイルと同じ偏差を有しない。しかし、このステップを数回繰り返せば、合成されるタイルの偏差は、所望の偏差に収束する。実際には、この照合を繰り返し行うことにより、反復毎に1回の照合ステップのみを用いて合成されるメッシュと視覚的に見分けのつかないメッシュが得られる。
従来のパラメトリックテクスチャ合成は、通常、ノイズ画像から開始する。それに対して、本発明のほとんどの応用では、変位画像222から合成を始める。この場合、統計値の反復照合は、新たな細部を追加しないが、既存の細部を正しく方向付けおよびスケーリングされた鮮鋭化およびぼかしにより変更する。
開始画像の有する細部が不十分である場合、本発明では、開始画像にノイズを追加する。本発明では白色ノイズを用いるが、経験では、同様に単純なノイズモデル、例えば、Perlinノイズが同じ結果を生じることが示唆される。Perlin著「An image synthesizer」(SIGGRAPH '85: Proceedings, pp. 287-296, 1985)を参照願いたい。本発明では、考え得るスキャナノイズおよびメッシュ化アーティファクトをカバーするのに十分であるが、既存の細部に勝るほどではない量のノイズを追加するよう注意を要する。
応用
本発明による、詳細な顔の幾何形状の統計モデルは、様々な用途に有用である。統計値は、例えば、顔のグループ間の変化を追跡するための顔の細部の分析を可能にする。統計値は、また、鮮明さを保存する補間、低解像度メッシュへの細部の追加、および加齢等の用途について、新たな顔の合成を可能にする。
本発明による、詳細な顔の幾何形状の統計モデルは、様々な用途に有用である。統計値は、例えば、顔のグループ間の変化を追跡するための顔の細部の分析を可能にする。統計値は、また、鮮明さを保存する補間、低解像度メッシュへの細部の追加、および加齢等の用途について、新たな顔の合成を可能にする。
顔の細部の分析
第1の応用として、顔の細部の分析および視覚化を考慮する。顔の細部が個人的特徴によりどのように変化するかに関する洞察を得たい。または、統計値を使用し、スキャンの統計値に基づいて顔を分類したい。グループ間の差異を視覚化するために、各グループの統計値を、最少量の成分を有するグループに標準化し、平均統計値をタイル毎に比較する。例えば、この手法を用いて、年齢および性別の影響を調査することができる。
第1の応用として、顔の細部の分析および視覚化を考慮する。顔の細部が個人的特徴によりどのように変化するかに関する洞察を得たい。または、統計値を使用し、スキャンの統計値に基づいて顔を分類したい。グループ間の差異を視覚化するために、各グループの統計値を、最少量の成分を有するグループに標準化し、平均統計値をタイル毎に比較する。例えば、この手法を用いて、年齢および性別の影響を調査することができる。
年齢
年齢の影響を調査するために、20歳〜30歳、35歳〜45歳、50歳〜60歳の3つの男性グループを比較する。本発明の統計値は、1番目の年齢層から2番目の年齢層にかけてよりも、2番目の年齢層から3番目の年齢層にかけてしわが現れてくることを示唆する。これは、45歳頃から、皮膚の粗さの量が急速に増えることを示唆する。45歳を過ぎると、より方向性の永久的なしわが目尻、口、並びに頬および額のいくつかのエリアの周囲に現れる。
年齢の影響を調査するために、20歳〜30歳、35歳〜45歳、50歳〜60歳の3つの男性グループを比較する。本発明の統計値は、1番目の年齢層から2番目の年齢層にかけてよりも、2番目の年齢層から3番目の年齢層にかけてしわが現れてくることを示唆する。これは、45歳頃から、皮膚の粗さの量が急速に増えることを示唆する。45歳を過ぎると、より方向性の永久的なしわが目尻、口、並びに頬および額のいくつかのエリアの周囲に現れる。
性別
顔の細部が性別によりどのように変化するかを調査するために、20歳〜30歳の女性を同じ年齢層の男性と比較する。女性と男性との高周波成分の変化は、様々な年齢層間の変化と性質が異なる。男性のほうが高周波成分を多く有するが、この年齢層の変化は、比較的一様であり、あまり方向性がない。また、男性は、顎および下頬の周囲に遥かに多くの成分を有する。スキャンした被写体は、誰も髭を生やしていなかったが、これは、男性被写体の無精髭および毛穴を示すものと思われる。
顔の細部が性別によりどのように変化するかを調査するために、20歳〜30歳の女性を同じ年齢層の男性と比較する。女性と男性との高周波成分の変化は、様々な年齢層間の変化と性質が異なる。男性のほうが高周波成分を多く有するが、この年齢層の変化は、比較的一様であり、あまり方向性がない。また、男性は、顎および下頬の周囲に遥かに多くの成分を有する。スキャンした被写体は、誰も髭を生やしていなかったが、これは、男性被写体の無精髭および毛穴を示すものと思われる。
補間
顔同士の補間を行うことが有用であり得る用途は多い。例えば、新たな顔を合成するためのユーザインタフェースは、データセットから複数の顔をユーザに提示し、一組の重みを定義し、入力された顔から所与の重みで補間した顔を返すことができる。代替的に、線形モデルは、1つの顔を、多数の入力された顔の加重和として合成することができる。
顔同士の補間を行うことが有用であり得る用途は多い。例えば、新たな顔を合成するためのユーザインタフェースは、データセットから複数の顔をユーザに提示し、一組の重みを定義し、入力された顔から所与の重みで補間した顔を返すことができる。代替的に、線形モデルは、1つの顔を、多数の入力された顔の加重和として合成することができる。
細部の追加
低解像度メッシュは、様々なソースから作成することができる。このようなメッシュは、市販のスキャナから入力されるか、手動で生成されるか、または一組の入力メッシュから線形モデルを用いて合成することができる。一方で、高解像度メッシュを得るのは、難しく高い費用がかかる。高解像度メッシュを得なくとも、低解像度の顔にもっともらしい高解像度の細部を追加することができれば有用であろう。
低解像度メッシュは、様々なソースから作成することができる。このようなメッシュは、市販のスキャナから入力されるか、手動で生成されるか、または一組の入力メッシュから線形モデルを用いて合成することができる。一方で、高解像度メッシュを得るのは、難しく高い費用がかかる。高解像度メッシュを得なくとも、低解像度の顔にもっともらしい高解像度の細部を追加することができれば有用であろう。
代替的に、低解像度メッシュをある年齢層の平均統計値に合わせて調節することは便利であろう。本発明のフレームワークは、低解像度メッシュ上への細部の合成を簡単な方法で可能にする。本発明では、低解像度メッシュの変位画像から開始して、これをターゲット統計値に合わせて調節し、これを元のベースメッシュに加算する。このプロセスは、本質的に、開始メッシュの利用可能な細部レベルに適応してこれを利用するため、開始メッシュが正確であるほど、合成される顔は、忠実なものとなる。
加齢および若返り
顔メッシュの見かけの年齢を変化させることが望ましい場合がある。例えば、ある俳優をより年取ってまたは若く見せたい場合がある。目標は、若い顔がもっともらしく年取ったような顔、およびその逆の顔を生成することである。顔の細部は、見かけの年齢に極めて重要な役割を果たすため、また、様々な年齢で撮影した同一人物のスキャンが利用可能でないため、年齢を変えることは困難な仕事である。
顔メッシュの見かけの年齢を変化させることが望ましい場合がある。例えば、ある俳優をより年取ってまたは若く見せたい場合がある。目標は、若い顔がもっともらしく年取ったような顔、およびその逆の顔を生成することである。顔の細部は、見かけの年齢に極めて重要な役割を果たすため、また、様々な年齢で撮影した同一人物のスキャンが利用可能でないため、年齢を変えることは困難な仕事である。
単純な手法は、高周波成分を年取った人から若い人へコピーする。これは、開始メッシュの既存の細部を上書きするとともに、年取った顔の高周波成分が若い顔の低周波成分の位置と合わないエリアにゴースティングを生じる。Blanz他のモデルは、そのセットのメッシュの年齢の線形回帰により加齢を行う。しかしこれは、補間と同じ問題(しわの位置が揃わず、細部がぼやける)を伴う。これはまた、ゴースティングの問題を解決せず、既存の細部を無視する。
本発明の方法の重要な利点は、既存の細部から開始し、細部を適宜調節することである。本発明の加齢方法を、以下でさらに詳述する。若返りは、同様に行われる。
加齢は、本発明の合成フレームワークに見事に該当する。本発明では、若い顔と年取った顔とを選択する。加齢するには、若い顔の画像から開始し、これを年取った顔の統計値に合わせていく。結果として得られる画像は、若い顔の細部を含み、しわおよび毛穴が、年取った顔の統計値に合わせて鮮鋭化され伸びている。
調節を説得力のあるものとするために、本発明では、基礎となる粗い顔構造を変化させる。本発明による顔メッシュの階層的分解は、このような変形を行う方法を示唆する。変位マップに先立って、本発明の再メッシュ化方式は、各顔をマーカーメッシュと、4つのレベルの細部とに分解する。この場合、若いメッシュからマーカーメッシュと低レベルの細部を取り出し(これらの粗い特性は、個人的なものであり、年齢とともに変化しないため)、年取ったメッシュから高レベルの細部を取り出す。
図6は、加齢を示し、図7は、若返りを示す。目尻および額付近において、若い顔は、年取った顔の方向性の高いしわを有するように調節される。若い顔は、また、口の両側の下にしわを獲得する。若返った顔は、例えば、頬のしわが滑らかになるが、口および瞼のしわの鮮明さは、保持する。
Claims (14)
- 顔モデルを生成する方法であって、
顔のスキャンを取得することと、
前記スキャンからポリゴンメッシュを構築することと、
ベースメッシュおよび変位画像を求めるために、前記ポリゴンメッシュを再パラメータ化することと、
前記変位画像を複数のタイルに分割することと、
各タイルの統計値を測定することと、
前記顔のモデルを生成するために、前記ベースメッシュ、前記変位画像、および前記統計値をメモリに記憶することと
を含む顔モデルを生成する方法。 - 前記変位画像を変形させるために、前記統計値を変更することと、
新たな顔を合成するために、前記変形された変位画像を前記ベースメッシュと結合することと
をさらに含む請求項1に記載の方法。 - 前記スキャンは、前記顔の3次元幾何形状と、前記顔のテクスチャの画像とを含む請求項1に記載の方法。
- 前記再パラメータ化することは、前記ポリゴンメッシュの頂点と前記画像中に定義される特徴点との間の対応関係を求めることをさらに含む請求項3に記載の方法。
- 前記特徴点は、マーカーメッシュを形成する請求項4に記載の方法。
- 前記測定することは、各タイル内の前記テクスチャの可動型ピラミッドのヒストグラムを抽出することをさらに含む請求項3に記載の方法。
- 前記可動型ピラミッドは、複数のスケールおよび複数の向きを有する請求項6に記載の方法。
- 前記可動型ピラミッドは、前記テクスチャのハイパス残差を考慮し、前記テクスチャのローパス残差は、前記ベースメッシュの一部である請求項6に記載の方法。
- 各ヒストグラムを標準偏差により近似することをさらに含む請求項6に記載の方法。
- 年齢、性別および人種の変動を含む複数の顔について前記モデルを生成することをさらに含む請求項1に記載の方法。
- 前記複数の顔を対応する前記統計値に従って分類することをさらに含む請求項10に記載の方法。
- 前記モデルを加齢することをさらに含む請求項1に記載の方法。
- 前記モデルを若返らせることをさらに含む請求項1に記載の方法。
- 顔モデルを生成するシステムであって、
顔のスキャンを取得する手段と、
前記スキャンからポリゴンメッシュを構築する手段と、
ベースメッシュおよび変位画像を求めるために、前記ポリゴンメッシュを再パラメータ化する手段と、
前記変位画像を複数のタイルに分割する手段と、
各タイルの統計値を測定する手段と、
前記顔のモデルを生成するために、前記ベースメッシュ、前記変位画像、および前記統計値をメモリに記憶する手段と
を備える顔モデルを生成するシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/392,917 US20070229498A1 (en) | 2006-03-29 | 2006-03-29 | Statistical modeling for synthesis of detailed facial geometry |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007265396A true JP2007265396A (ja) | 2007-10-11 |
Family
ID=38558164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007037983A Pending JP2007265396A (ja) | 2006-03-29 | 2007-02-19 | 顔モデルを生成する方法およびシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20070229498A1 (ja) |
JP (1) | JP2007265396A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009116725A (ja) * | 2007-11-08 | 2009-05-28 | Dainippon Printing Co Ltd | 皮革形状データ生成装置、皮革形状データ生成方法及び皮革形状データ生成プログラム |
CN101882326A (zh) * | 2010-05-18 | 2010-11-10 | 广州市刑事科学技术研究所 | 基于中国人全面部结构形数据的三维颅面复原方法 |
CN102945559A (zh) * | 2012-10-19 | 2013-02-27 | 北京农业信息技术研究中心 | 叶片干枯褶皱的模拟方法 |
WO2013157570A1 (ja) * | 2012-04-20 | 2013-10-24 | 富士フイルム株式会社 | 撮影装置、撮影方法およびプログラム |
JP5950486B1 (ja) * | 2015-04-01 | 2016-07-13 | みずほ情報総研株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
WO2017006615A1 (ja) * | 2015-07-09 | 2017-01-12 | みずほ情報総研 株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
JP2020515952A (ja) * | 2017-03-21 | 2020-05-28 | ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company | 年齢容姿シミュレーションのための方法 |
JP2023505615A (ja) * | 2020-02-26 | 2023-02-09 | ソウル マシーンズ リミティド | 細かいしわを有する顔メッシュ変形 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8115774B2 (en) * | 2006-07-28 | 2012-02-14 | Sony Computer Entertainment America Llc | Application of selective regions of a normal map based on joint position in a three-dimensional model |
KR100810326B1 (ko) * | 2006-10-10 | 2008-03-04 | 삼성전자주식회사 | 다해상도 3차원 모델 생성 방법 |
US20080117215A1 (en) * | 2006-11-20 | 2008-05-22 | Lucasfilm Entertainment Company Ltd | Providing A Model With Surface Features |
KR101527408B1 (ko) * | 2008-11-04 | 2015-06-17 | 삼성전자주식회사 | 얼굴 표정 검출 방법 및 시스템 |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
KR20110024053A (ko) * | 2009-09-01 | 2011-03-09 | 삼성전자주식회사 | 3d 오브젝트 변형 장치 및 방법 |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
US8331698B2 (en) | 2010-04-07 | 2012-12-11 | Seiko Epson Corporation | Ethnicity classification using multiple features |
US20110293189A1 (en) * | 2010-05-28 | 2011-12-01 | Microsoft Corporation | Facial Analysis Techniques |
US10026227B2 (en) | 2010-09-02 | 2018-07-17 | The Boeing Company | Portable augmented reality |
US8902254B1 (en) * | 2010-09-02 | 2014-12-02 | The Boeing Company | Portable augmented reality |
US9113050B2 (en) | 2011-01-13 | 2015-08-18 | The Boeing Company | Augmented collaboration system |
US9082222B2 (en) * | 2011-01-18 | 2015-07-14 | Disney Enterprises, Inc. | Physical face cloning |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
CN102521875A (zh) * | 2011-11-25 | 2012-06-27 | 北京师范大学 | 一种基于张量空间偏最小二乘回归的颅面重构方法 |
US9373023B2 (en) * | 2012-02-22 | 2016-06-21 | Sri International | Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor |
US9047704B2 (en) * | 2012-03-27 | 2015-06-02 | IntegrityWare, Inc. | Method for filleting 3D mesh edges by subivision |
EP2864961A4 (en) * | 2012-06-21 | 2016-03-23 | Microsoft Technology Licensing Llc | AVATAR CONSTRUCTION USING A DEPTH CAMERA |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
CN103700062B (zh) * | 2013-12-18 | 2017-06-06 | 华为技术有限公司 | 图像处理方法和装置 |
KR20150108241A (ko) * | 2014-03-17 | 2015-09-25 | 한국전자통신연구원 | 빠르고 자연스러운 지형 생성 방법 및 그 장치 |
GB201408925D0 (en) | 2014-05-20 | 2014-07-02 | Rolls Royce Plc | Finite element mesh customisation |
CN104318234B (zh) * | 2014-10-23 | 2017-06-16 | 东南大学 | 一种采用点云数据表示的人脸皱纹三维提取方法及其设备 |
CN105005770A (zh) * | 2015-07-10 | 2015-10-28 | 青岛亿辰电子科技有限公司 | 手持扫描仪多次扫描面部细节提升合成方法 |
CA3015492C (en) | 2016-03-21 | 2021-11-23 | The Procter & Gamble Company | Systems and methods for providing customized product recommendations |
US10614623B2 (en) * | 2017-03-21 | 2020-04-07 | Canfield Scientific, Incorporated | Methods and apparatuses for age appearance simulation |
CN110678875B (zh) | 2017-05-31 | 2023-07-11 | 宝洁公司 | 用于引导用户拍摄自拍照的系统和方法 |
JP6849825B2 (ja) | 2017-05-31 | 2021-03-31 | ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company | 見掛け肌年齢を判定するためのシステム及び方法 |
US10431000B2 (en) * | 2017-07-18 | 2019-10-01 | Sony Corporation | Robust mesh tracking and fusion by using part-based key frames and priori model |
CN107491740B (zh) * | 2017-07-28 | 2020-03-17 | 北京科技大学 | 一种基于面部表情分析的新生儿疼痛识别方法 |
CN107644455B (zh) * | 2017-10-12 | 2022-02-22 | 北京旷视科技有限公司 | 人脸图像合成方法和装置 |
CN109360166B (zh) * | 2018-09-30 | 2021-06-22 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备和计算机可读介质 |
KR20210069093A (ko) | 2018-10-26 | 2021-06-10 | 소울 머신스 리미티드 | 디지털 캐릭터 블렌딩 및 생성 시스템 및 방법 |
CN109753892B (zh) * | 2018-12-18 | 2023-06-13 | 广州市百果园信息技术有限公司 | 人脸皱纹的生成方法、装置、计算机存储介质和终端 |
US11461968B2 (en) * | 2020-01-30 | 2022-10-04 | Unity Technologies Sf | Method of inferring microdetail on skin animation |
CN113327191A (zh) * | 2020-02-29 | 2021-08-31 | 华为技术有限公司 | 人脸图像合成方法及装置 |
WO2024084128A1 (en) * | 2022-10-17 | 2024-04-25 | Nokia Technologies Oy | A method, an apparatus and a computer program product for video encoding and video decoding |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4276570A (en) * | 1979-05-08 | 1981-06-30 | Nancy Burson | Method and apparatus for producing an image of a person's face at a different age |
US5872867A (en) * | 1995-08-04 | 1999-02-16 | Sarnoff Corporation | Method and apparatus for generating image textures |
US6222642B1 (en) * | 1998-08-10 | 2001-04-24 | Xerox Corporation | System and method for eliminating background pixels from a scanned image |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
GB2382289B (en) * | 2001-09-28 | 2005-07-06 | Canon Kk | Method and apparatus for generating models of individuals |
US7239321B2 (en) * | 2003-08-26 | 2007-07-03 | Speech Graphics, Inc. | Static and dynamic 3-D human face reconstruction |
-
2006
- 2006-03-29 US US11/392,917 patent/US20070229498A1/en not_active Abandoned
-
2007
- 2007-02-19 JP JP2007037983A patent/JP2007265396A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009116725A (ja) * | 2007-11-08 | 2009-05-28 | Dainippon Printing Co Ltd | 皮革形状データ生成装置、皮革形状データ生成方法及び皮革形状データ生成プログラム |
CN101882326A (zh) * | 2010-05-18 | 2010-11-10 | 广州市刑事科学技术研究所 | 基于中国人全面部结构形数据的三维颅面复原方法 |
WO2013157570A1 (ja) * | 2012-04-20 | 2013-10-24 | 富士フイルム株式会社 | 撮影装置、撮影方法およびプログラム |
JP2013225193A (ja) * | 2012-04-20 | 2013-10-31 | Fujifilm Corp | 撮影装置、撮影方法およびプログラム |
US9154691B2 (en) | 2012-04-20 | 2015-10-06 | Fujifilm Corporation | Image capturing apparatus, image capturing method, and program |
CN102945559A (zh) * | 2012-10-19 | 2013-02-27 | 北京农业信息技术研究中心 | 叶片干枯褶皱的模拟方法 |
JP5950486B1 (ja) * | 2015-04-01 | 2016-07-13 | みずほ情報総研株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
JP2016194892A (ja) * | 2015-04-01 | 2016-11-17 | みずほ情報総研株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
WO2017006615A1 (ja) * | 2015-07-09 | 2017-01-12 | みずほ情報総研 株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
KR20170115591A (ko) | 2015-07-09 | 2017-10-17 | 미즈호 죠호 소켄 가부시키가이샤 | 가령화 예측 시스템, 가령화 예측 방법 및 가령화 예측 프로그램 |
KR101968437B1 (ko) | 2015-07-09 | 2019-04-11 | 미즈호 죠호 소켄 가부시키가이샤 | 가령화 예측 시스템, 가령화 예측 방법 및 가령화 예측 프로그램 |
JP2020515952A (ja) * | 2017-03-21 | 2020-05-28 | ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company | 年齢容姿シミュレーションのための方法 |
JP2023505615A (ja) * | 2020-02-26 | 2023-02-09 | ソウル マシーンズ リミティド | 細かいしわを有する顔メッシュ変形 |
JP7251003B2 (ja) | 2020-02-26 | 2023-04-03 | ソウル マシーンズ リミティド | 細かいしわを有する顔メッシュ変形 |
Also Published As
Publication number | Publication date |
---|---|
US20070229498A1 (en) | 2007-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007265396A (ja) | 顔モデルを生成する方法およびシステム | |
Golovinskiy et al. | A statistical model for synthesis of detailed facial geometry | |
EP1424655B1 (en) | A method of creating 3-D facial models starting from facial images | |
Noh et al. | A survey of facial modeling and animation techniques | |
US8902232B2 (en) | Facial performance synthesis using deformation driven polynomial displacement maps | |
JP4886645B2 (ja) | 仮想顔モデル変形装置及び仮想顔モデル変形プログラム | |
Herrera et al. | Lighting hair from the inside: A thermal approach to hair reconstruction | |
WO2002013144A1 (en) | 3d facial modeling system and modeling method | |
JP2018503470A (ja) | 統計的技術を用いて形成されたデジタル歯冠モデルに表面詳細を追加するシステム及び方法 | |
Thalmann et al. | Modeling of populations | |
Ahmed et al. | Automatic generation of personalized human avatars from multi-view video | |
Song et al. | A generic framework for efficient 2-D and 3-D facial expression analogy | |
Fidaleo et al. | Classification and volume morphing for performance-driven facial animation | |
Jeong et al. | Automatic generation of subdivision surface head models from point cloud data | |
Zhang et al. | Anatomy-based face reconstruction for animation using multi-layer deformation | |
JP4893968B2 (ja) | 顔画像の合成方法 | |
Leta et al. | Manipulating facial appearance through age parameters | |
Zhang et al. | Synthesis of 3D faces using region‐based morphing under intuitive control | |
Shao | A Coarse-to-Fine Multiscale Mesh Representation And Its Applications | |
Zhang et al. | From range data to animated anatomy-based faces: a model adaptation method | |
Takács et al. | Facial modeling for plastic surgery using magnetic resonance imagery and 3D surface data | |
Zhang et al. | Face modeling and editing with statistical local feature control models | |
Niiro et al. | Assembling a Pipeline for 3D Face Interpolation | |
Zatserkovnyi | 3D Head Model Estimation from a Single Photo | |
Zhang | Modeling of human faces with parameterized local shape morphing |