JP4468631B2 - 3次元顔モデルのためのテクスチャー生成方法及び装置 - Google Patents

3次元顔モデルのためのテクスチャー生成方法及び装置 Download PDF

Info

Publication number
JP4468631B2
JP4468631B2 JP2002360184A JP2002360184A JP4468631B2 JP 4468631 B2 JP4468631 B2 JP 4468631B2 JP 2002360184 A JP2002360184 A JP 2002360184A JP 2002360184 A JP2002360184 A JP 2002360184A JP 4468631 B2 JP4468631 B2 JP 4468631B2
Authority
JP
Japan
Prior art keywords
texture
model
coordinates
unit
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002360184A
Other languages
English (en)
Other versions
JP2003216971A5 (ja
JP2003216971A (ja
Inventor
義 賢 ▲黄▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2003216971A publication Critical patent/JP2003216971A/ja
Publication of JP2003216971A5 publication Critical patent/JP2003216971A5/ja
Application granted granted Critical
Publication of JP4468631B2 publication Critical patent/JP4468631B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は映像処理に係り、特に、2次元顔映像を3次元顔モデルにマッピングするために必要なテクスチャーを生成するテクスチャー生成方法及び装置に関する。
【0002】
【従来の技術】
3次元顔モデリングは、難易度が高い。なぜならば、顔は屈曲が激しく、その微妙な変化にも人が容易に違いを感じるからである。一般に、3次元顔モデルは、2種類の用途のために生成される。
【0003】
第一に、映画等のために3次元顔モデルを生成する。この場合、顔モデルは優れた品質を有しなければならないが、必ずしもリアルタイムにて生成される必要はない。従って、顔モデルに対するテクスチャーを単に大きくすることにより、顔モデルに対するテクスチャーの品質を改善することができる。
【0004】
第二に、ゲームまたはモバイル装置などをために3次元顔モデルを生成する。この時、モバイル装置は限られたリソースを用いて3次元顔モデルに対するグラフィックを試み、リアルタイムアニメーション、例えば、顔モデルを通じたアバターなどを生成する。しかし、ゲーム機やコンピュータはその性能が良好になるにつれてモバイル装置に比べてリソースを制限しないつつも速い処理速度を有するが、映画に比べては依然としてリアルタイム動作を要するため、限られたリソースを用いざるを得ない。
【0005】
従来のテクスチャー生成方法として、次のような3つのアプローチがあった。従来の第1のアプローチによるテクスチャー生成方法は、単に円筒座標変換を通じて3次元顔モデルのためのテクスチャーを生成していた。この場合、3次元頭映像に対する全体テクスチャーにおいて、顔映像に対するテクスチャーの占める部分は1/8に過ぎない。すなわち、頭全体において顔映像は頭の上下方向に約50%を占め、頭の左右方向に約25%を占める。この時、生成された顔モデルを見て人が主に違いを感じる部分は顔のうち目を中心とする部分であることを考慮した時、従来の第1テクスチャー生成方法は、全体テクスチャーにおいて不要部分に当たるテクスチャーが無駄になるという問題点がある。
【0006】
従来の第2のアプローチによるテクスチャー生成方法は、3次元顔モデルを生成するために使われるテクスチャーを圧縮するものであるが、テクスチャーを使う前に圧縮されたテクスチャーを復元する別途の装置を必要とする点に問題点を有する。
【0007】
従来の第3のアプローチによるテクスチャー生成方法は、リソースが限られる場合にテクスチャーの絶対サイズを減らしてしまう方法であるが、3次元顔モデルのためのテクスチャー品質の低下が問題となる。
【0008】
【発明が解決しようとする課題】
本発明が解決しようとする技術的課題は、2次元顔映像を3次元顔モデルにマッピングする時に、品質を維持しつつ、別途の装置を必要とせずに、効率的に必要なテクスチャーを生成することである。具体的には、対象となる顔映像の領域中、ユーザの関心がある部分に重点を置きつつ、ユーザの関心がない部分を活用して必要なテクスチャーを生成する3次元顔モデルのためのテクスチャー生成方法を提供することである。
【0009】
本発明が解決しようとする他の技術的課題は、前記3次元顔モデルのためのテクスチャー生成方法を行う3次元顔モデルのためのテクスチャー生成装置を提供することである。
【0010】
【課題を解決するための手段】
前記課題を達成するために、本発明による3次元顔モデルのためのテクスチャー生成方法は、(a)顔の正面映像及び少なくとも1枚の側面映像に対して標準モデルを変形して生成される変形されたモデル座標を変換関数に代入して所定の中心部を所定の割合で拡大した結果及び前記割合だけ周辺部を縮小した結果からテクスチャー座標を抽出し、前記変形されたモデル座標をピクセル座標に変換する段階と、(b)前記変形されたモデル座標を分析した結果に対応してユーザから提供された前記正面映像及び前記側面映像を前記ピクセル座標により決定されたポリゴン単位に前記テクスチャー座標を用いて補間し、補間された結果を変形されたテクスチャーとして決定する段階とを備え、前記中心部は、前記顔のうち目を中心としてユーザにより設定される領域にあたり、前記周辺部は、前記顔のうち前記中心部を除いた領域に当たることを特徴とする。
【0011】
前記他の課題を達成するために、本発明による3次元顔モデルのためのテクスチャー生成装置は、顔の正面映像及び少なくとも1枚の側面映像に対して標準モデルを変形して生成された変形されたモデル座標を入力し、入力された前記変形されたモデル座標を変換関数に代入して所定の中心部を所定の割合で拡大し、前記割合だけ周辺部を縮小し、拡大及び縮小された結果をテクスチャー座標として出力するテクスチャー座標抽出部と、前記変形されたモデル座標をピクセル座標に変換し、変換された前記ピクセル座標を出力するピクセル座標抽出部と、前記変形されたモデル座標を分析し、分析された結果に応答して前記正面映像または前記側面映像をユーザより入力し、前記ピクセル座標により決定されたポリゴン単位に前記テクスチャー座標により前記正面映像または側面映像を補間し、補間された結果を変形されたテクスチャーとして出力するテクスチャー変形部とを備え、前記中心部は、前記顔のうち目を中心として前記ユーザにより設定される領域であり、前記周辺部は、前記顔のうち前記中心部を除いた領域に当たることを特徴とする。
【0012】
【発明の実施の形態】
以下、添付した図面に基づき、本発明による3次元顔モデルのためのテクスチャー生成方法及びその方法を行う本発明によるテクスチャー生成装置の構成及び動作を説明する。
【0013】
図1は、本発明によるテクスチャー生成方法を説明するためのフローチャートである。図1に示すように、本発明によるテクスチャー生成方法は、テクスチャー座標及びピクセル座標を求める段階(第10段階)、テクスチャーを変形する段階(第12段階)及び変形されたテクスチャーを記憶する段階(第14段階)からなる。図2は、図1に示したテクスチャー生成方法を行う本発明によるテクスチャー生成装置のブロック図である。図2に示すように、本発明によるテクスチャー生成装置は、ピクセル座標抽出部30、テクスチャー座標抽出部32、テクスチャー変形部34及び記憶部36を含む。図3の(a)ないし(c)は、画像の「中心部」を説明するための図面である。
【0014】
本発明による3次元顔モデルのためのテクスチャー生成方法は、まず、変形されたモデル座標を変換関数に代入して所定の中心部を所定の割合で拡大した結果及び所定の割合だけ周辺部を縮小した結果からテクスチャー座標を抽出し、変形されたモデル座標をピクセル座標に変換する(第10段階)。ここで、変形されたモデル座標は、顔を正面から撮影した正面映像と顔を側面、すなわち、右側及び/または左側から撮影した側面映像に対して標準モデルを変形して生成する。変形されたモデル座標の生成については、大韓民国特許出願第2000−9867号明細書「2次元顔映像の3次元顔モデルへのテクスチャーマッピング方法及び装置」に開示されている。
【0015】
本発明によれば、前記中心部は、ユーザの関心がある部分であって、顔のうち目を中心としてユーザにより設定される領域であり、周辺部は、ユーザの関心がない部分であって、顔のうち中心部を除いた領域である。例えば、図3(a)に示すように、中心部40は、顔の中心となる両目の中間点を中心+として設定される。あるいは、図3(b)に示すように、映像分布の側面で上下には眉毛から顎までを含んで左右には両目の外側端部を含むように、鼻を中心+として中心部42が設定される。この時、中心+は、ユーザにより任意に移動可能である。すなわち、中心部は、ユーザにより任意の移動ができるよう構成されている。例えば、口の部分がより重要であれば、図3(c)に示すように、口を中心+として中心部44を設定することができる。
【0016】
第10段階を行うために、図2に示すテクスチャー生成装置は、ピクセル座標抽出部30及びテクスチャー座標抽出部32を含む。
【0017】
ここで、ピクセル座標抽出部30は、入力端子IN1を介して入力された変形されたモデル座標をピクセル座標に変換し、変換されたピクセル座標をテクスチャー変形部34に出力する。以下、添付した図面に基づき、図1に示す第10段階及び図2に示すピクセル座標抽出部30の本発明による望ましい実施例のいくつかを説明する。
【0018】
図4は、図1に示す第10段階に対する本発明による望ましい一実施例10Aを説明するためのフローチャートであり、投影及び中心移動を通じて正面映像または側面映像に対するピクセル座標を生成する段階(第50及び第52段階)を含む。
【0019】
まず、正面映像に対する変形されたモデル座標をxy平面に投影する(第50段階)。第50段階後に、投影された結果の中心を移動して正面映像に対するピクセル座標を生成し、第12段階へ進む(第52段階)。同様に、側面映像に対する変形されたモデル座標をxy平面に投影する(第50段階)。第50段階後に、投影された結果の中心を移動して側面映像に対するピクセル座標を生成し、第12段階へ進む(第52段階)。
【0020】
図5は、図4に示す実施例10Aを行うピクセル座標抽出部30の本発明による望ましい一実施例30Aのブロック図である。ピクセル座標抽出部30の本発明による望ましい一実施例30Aは、第1及び第2座標変換部60及び70を含む。
【0021】
図5に示す第1座標変換部60は、入力端子IN1を介して入力された正面映像に対する変形されたモデル座標をピクセル座標に変換し、変換されたピクセル座標を出力端子OUT2を介してテクスチャー変形部34に出力する。ここで、第1座標変換部60は、図4に示す実施例10Aを行うために、第1投影部62及び第1中心移動部64を含む。一方、第1投影部62は、入力端子IN1を介して入力された正面映像に対する変形されたモデル座標をxy平面に投影し、投影された結果を第1中心移動部64に出力する。この時、第1中心移動部64は、第1投影部62から入力された投影された結果の中心を移動して正面映像に対するピクセル座標を生成し、生成された正面映像に対するピクセル座標を出力端子OUT2を介してテクスチャー変形部34に出力する。
【0022】
さらに、第2座標変換部70は、入力端子IN1を介して入力された側面映像に対する変形されたモデル座標をピクセル座標に変換し、変換されたピクセル座標を出力端子OUT2を介してテクスチャー変形部34に出力する。このために、第2座標変換部70は、図4に示す実施例10Aを行うために、第2投影部72及び第2中心移動部74を含む。ここで、第2投影部72は、入力端子IN1を介して入力された側面映像に対する変形されたモデル座標をxy平面に投影し、投影された結果を第2中心移動部74に出力する。この時、第2中心移動部74は、第2投影部72から入力された投影された結果の中心を移動して側面映像に対するピクセル座標を生成し、生成された側面映像に対するピクセル座標を出力端子OUT2を介してテクスチャー変形部34に出力する。
【0023】
図6は、図1に示す第10段階に対する本発明による望ましい他の実施例10Bを説明するためのフローチャートである。第10段階に対する本発明による望ましい他の実施例10Bは、投影及び中心移動を通じて側面映像に対するピクセル座標を生成する段階(第80及び第82段階)を含む。
【0024】
まず、側面映像に対する変形されたモデル座標をzy平面に投影する(第80段階)。第80段階後に、投影された結果の中心を移動して側面映像に対するピクセル座標を生成する(第82段階)。
【0025】
図7は、図5に示す第2座標変換部70の本発明による望ましい他の実施例70Aのブロック図である。第2座標変換部70の本発明による望ましい他の実施例70Aは、第3投影部90及び第3中心移動部92を含む。
【0026】
図7に示す第2座標変換部70Aは、図6に示された実施例10Bを行うために、第3投影部90及び第3中心移動部92を含む。ここで、第3投影部90は、入力端子IN1を介して入力された側面映像に対する変形されたモデル座標をzy平面に投影し、投影された結果を第3中心移動部92に出力する。この時、第3中心移動部92は、第3投影部90から入力された投影された結果の中心を移動して側面映像に対するピクセル座標を生成し、生成されたピクセル座標を出力端子OUT3を介してテクスチャー変形部34に出力する。
【0027】
前記第2座標変換部70は、変形されたモデル座標に当たる変形された標準モデルを側面映像のうちの一枚である右側映像に合わせて右側に回転させるか、あるいは、変形された標準モデルを側面映像のうち他の一枚である左側映像に合わせて左側に回転させる場合、第2投影部72及び第2中心移動部74を含む。しかし、変形された標準モデルを右側または左側に回転させない場合、第2座標変換部70は、第3投影部90及び第3中心移動部92を含む。
【0028】
本発明の一実施例によれば、前記第1、第2または第3中心移動部64、74または92は、中心を移動した結果の座標を切り上げ、切り上げられた座標をピクセル座標として出力する。本発明の他の実施例によれば、第1、第2または第3中心移動部64、74または92は、中心を移動した結果の座標において少数点以下を切り捨て、切り捨てられた結果をピクセル座標として出力する。これら2つの実施例により整数の形のピクセル座標が抽出可能になる。
【0029】
一方、テクスチャー座標抽出部32は、入力端子IN1を介して入力された変形されたモデル座標を変換関数に代入して所定の中心部を所定の割合で拡大し、該拡大した割合だけ周辺部を縮小し、拡大及び縮小された結果をテクスチャー座標としてテクスチャー変形部34及び記憶部36に各々出力する。以下、添付した図面に基づき、図1に示す第10段階及び図2に示すテクスチャー座標抽出部32の本発明による望ましい実施例の各々を説明する。
【0030】
図8は、図1に示す第10段階に対する本発明による望ましいさらに他の実施例10Cを説明するためのフローチャートである。第10段階に対する本発明による実施例10Cは、座標系を変換する段階(第100段階)及び変換された座標系で表わされる変形されたモデル座標を変形してテクスチャー座標を求める段階(第102段階)を含む。
【0031】
図9は、図8に示す実施例10Cを行うテクスチャー座標抽出部32の本発明による一実施例32Aのブロック図である。実施例10Cを行うテクスチャー座標抽出部32の本発明による一実施例32Aは、座標変換部110及び座標変形部112を含む。
【0032】
図9に示す座標変換部110は、入力端子IN1を介して入力された直交座標系で表わされる変形されたモデル座標(x,y,z)を下記式1のように円筒座標系(r,θ,yc)に変換し、円筒座標系で表わされる変形されたモデル座標を座標変形部112に出力する(第100段階)。
【0033】
【数1】
Figure 0004468631
(ここで、θは、−π〜πの範囲内である。)
【0034】
第100段階後に、座標変形部112は、座標変換部110から入力された円筒座標系で表わされる変形されたモデル座標を変換関数に代入して変形し、変形された結果をテクスチャー座標として出力端子OUT4を介して出力する(第102段階)。
【0035】
図10は、座標変形部112の実施例を説明するためのグラフであって、横軸は、円筒座標系で表わされる変形されたモデル座標(θ/π,y)を表わし、縦軸は、座標変形部112により変形されたモデル座標、すなわち、テクスチャー座標(θ,y)を表わす。
【0036】
本発明の第1実施例によれば、図9に示す座標変形部112は、座標変換部110から入力された円筒座標系で表わされる変形されたモデル座標を図10に示す変形関数、すなわち、連続関数130により変形し、変形された結果をテクスチャー座標として出力端子OUT4を介して出力する。図10に示すように、従来のテクスチャー生成装置による場合、変形されたモデル座標及びテクスチャー座標は一対一の対応関係134を有する。しかし、本発明によるテクスチャー生成装置は、変形されたモデル座標を連続関数130により原点(0,0)を基準として拡大変形する。
【0037】
例えば、座標変形部112は、円筒座標系において前記式1のように表わされる変形されたモデル座標(r,θ,yc)を下記式2のように表わされる1次連続関数により変形し、変形された結果をテクスチャー座標(θm,ym)として出力する。
【0038】
【数2】
Figure 0004468631
【0039】
ここで、2で除算して0.5を加算した理由は、図10に示す変形された結果であるテクスチャー座標(θm,ym)を0.0〜1.0の値で表わすためである。
【0040】
他の例を挙げれば、座標変形部112は、円筒座標系において前記式1のように表わされる変形されたモデル座標(r,θ,yc)を下記式3のように表わされるtanh連続関数により変形し、変形された結果をテクスチャー座標(θm,ym)として出力端子OUT4を介して出力する。
【0041】
【数3】
Figure 0004468631
【0042】
ここで、2で除算して0.5を加算した理由は、図10に示す変形された結果であるテクスチャー座標(θm,ym)を0.0〜1.0の値で表わすためである。
【0043】
本発明の第2実施例によれば、座標変形部112は、座標変換部110から入力された円筒座標系で表わされる変形されたモデル座標を図10に示された変形関数、すなわち、不連続関数132により変形し、変形された結果をテクスチャー座標として出力端子OUT4を介して出力する。図10に示すように、変形されたモデル座標とテクスチャー座標との一対一の対応関係134は、不連続関数132により原点(0,0)を基準として変形される。例えば、円筒座標系において前記式1のように表わされる変形されたモデル座標(r,θ,yc)は、1次不連続関数により変形可能である。この場合、1次不連続関数により変形されたテクスチャー座標(θm,ym)において、θmは下記式4のように表わすことができる。
【0044】
【数4】
Figure 0004468631
【0045】
本発明の第3実施例によれば、座標変形部112は、座標変換部110からアドレスとして入力された円筒座標系で表わされる変形されたモデル座標(r,θ,yc)に応答して、記憶されたテクスチャー座標(θm,ym)のうち該当テクスチャー座標を出力端子OUT4を介して読み出す所定のテーブル、例えば、ルックアップテーブル(LUT:Look Up Table)120により具現可能である。例えば、テクスチャーの解像度が100ピクセル×100ピクセルであれば、0.0〜1.0の範囲を有する変形されたモデル座標に99を乗算してその範囲を0〜99に変えることができる。従って、下記表1のようなLUT 120により変換された値を再び99で割れば、所望の変換結果、すなわち、テクスチャー座標を得ることができる。
【0046】
【表1】
Figure 0004468631
【0047】
このように、テーブルを用いて変形されたモデル座標からテクスチャー座標を生成する場合、テクスチャー座標の変化の度合いを自由に調整することができるという利点がある。
【0048】
図11は、人の頭の形状を示す図面であって、(a)は、上から眺めた頭の形状を示し、(b)は、側面から眺めた頭の形状を示す。
【0049】
図11(a)に示すように、人の頭を上から眺めれば、眉間を基準として左右45°(=θ)領域内に中心部が含まれ、図11(b)に示すように、人の頭を側面から眺めれば、目を基準として上下45°の領域内に中心部が含まれる。例えば、座標変形部112が前記第1実施例の数式2によりテクスチャー座標を生成する場合、図11(a)に示されている全体に対する25%のθ、すなわち、左右45°は38%に拡大され、図11(b)に示されている全体に対する50%の上下45°は76%に拡大される。従って、顔のうち中心部が占める領域のテクスチャーが12.5%から28.9%へと2倍以上拡大される。
【0050】
前記ピクセル座標抽出部30及びテクスチャー座標抽出部32は、ピクセル座標及びテクスチャー座標を同時に抽出する。例えば、図4または図6に示す実施例10Aまたは10Bにより正面映像及び側面映像に対するピクセル座標が生成されると同時に、図8に示す実施例10Cにより正面映像及び側面映像に対するテクスチャー座標が生成される。
【0051】
一方、第10段階後に、前記変形されたモデル座標を分析した結果に対応してユーザから提供された正面映像及び側面映像をポリゴン単位にテクスチャー座標を用いて補間し、補間された結果を変形されたテクスチャーとして決定する(第12段階)。このために、テクスチャー変形部34は、入力端子IN1を介して入力される変形されたモデル座標を分析し、分析された結果に応答して入力端子IN2を介して正面映像または側面映像を入力し、テクスチャー座標抽出部32から入力されたテクスチャー座標を用いて正面映像または側面映像をポリゴン単位に補間し、補間された結果を変形されたテクスチャーとして出力する。ここで、テクスチャー変形部34は、ピクセル座標抽出部30から入力されたピクセル座標を用いて正面映像または側面映像のポリゴンを抽出する。また、ここで、入力端子IN2を介して入力される正面映像または側面映像は、ビデオカムコーダ、デジタルカメラ、スキャナーまたは映像ファイルにより、ユーザから与えることができる。
【0052】
以下、添付した図面に基づき、図1に示す第12段階及び図2に示すテクスチャー変形部34の本発明による望ましい実施例を説明する。
【0053】
図12は、図1に示す第12段階に対する本発明による望ましい一実施例12Aを説明するためのフローチャートであって、正面映像及び側面映像からテクスチャー補間値を求める段階(第140及び第142段階)及び正面映像及び側面映像に対する変形されたテクスチャーを求める段階(第144ないし第148段階)を含む。
【0054】
図13は、図12に示す実施例12Aを行うテクスチャー変形部34の本発明による望ましい一実施例34Aのブロック図である。実施例12Aを行うテクスチャー変形部34の本発明による望ましい一実施例34Aは、第1及び第2平均値計算部160及び162、補償値抽出部164、映像入力部166、補間部168、第1乗算部170、テクスチャー生成器172及びブレンディング部174を含む。
【0055】
第10段階後に、ユーザから与えられる正面映像の基準部の周りに位置するピクセルのRGB平均値である第1平均値、及びユーザから与えられる側面映像の基準部の周りに位置するピクセルのRGB平均値である第2平均値を求める(第140段階)。第140段階を行うために、テクスチャー変形部34Aは、第1及び第2平均値計算部160及び162を設ける。ここで、第1平均値計算部160は、ユーザから入力端子IN2を介して入力された正面映像の基準部の周りに位置するピクセルのRGB平均値である第1平均値を計算し、計算された第1平均値を補償値抽出部164に出力する。さらに、第2平均値計算部162は、ユーザから入力端子IN2を介して入力された側面映像の基準部の周りに位置するピクセルのRGB平均値である第2平均値を計算し、計算された第2平均値を補償値抽出部164に出力する。
【0056】
本発明によれば、第1及び第2平均値計算部160及び162のうち少なくとも何れか一方は、所定値を超える第1または第2平均値を所定値として決定する。なぜならば、人の皮膚は原色ではないために第1または第2平均値が所定値を超える場合は希であるが、誤りを発生させないためである。
【0057】
第140段階後に、補償値抽出部164は、第1平均値計算部160から入力された第1平均値と第2平均値計算部162から入力された第2平均値との平均値比を計算し、計算された平均値比をテクスチャー補間値として出力する(第142段階)。
【0058】
例えば、入力端子IN2を介して入力される側面映像が2枚である場合、すなわち、右側映像及び左側映像が入力端子IN2を介して入力されると仮定する場合、第2平均値計算部162及び補償値抽出部164の構成及び動作の詳細は、下記の通りである。
【0059】
図14は、図13に示す第2平均値計算部162及び補償値抽出部164の本発明による望ましい実施例162A及び164Aを説明するための図面である。図14に示すように、第2平均値計算部162及び補償値抽出部164の本発明による望ましい実施例162A及び164Aは、第1平均値計算部160、第2平均値計算部162A及び補償値抽出部164Aを含む。
【0060】
前記の仮定下で、第2平均値計算部162Aは、第1及び第2平均値計算器190及び192を含んでなり、補償値抽出部164Aは、第1及び第2補償値抽出器200及び202を含んでなることができる。ここで、第1平均値計算器190は、ユーザから入力端子IN2を介して入力された側面映像のうち一枚である右側映像の基準部の周りに位置するピクセルのRGB平均値である第2平均値ΔR’,ΔG’,ΔB’を計算し、計算された第2平均値ΔR’,ΔG’,ΔB’を補償値抽出部164Aに出力する。さらに、第2平均値計算器192は、ユーザから入力端子IN2を介して入力された側面映像のうち他の1枚である左側映像の基準部の周りに位置するピクセルのRGB平均値である第2平均値ΔR”,ΔG”,ΔB”を計算し、計算された第2平均値ΔR”,ΔG”,ΔB”を補償値抽出部164Aに出力する。照明の影響は顔の左右で大いに現れるので、第1平均値計算器190及び第2平均値計算器192は、各々独立的に平均値を計算することもできる。
【0061】
この時、補償値抽出部164Aの第1補償値抽出器200は、第1平均値計算部160から入力された第1平均値ΔR,ΔG,ΔBと第1平均値計算器190から入力された第2平均値ΔR’,ΔG’,ΔB’との平均値比RR,RG,RBを下記式5のように計算し、計算された平均値費RR,RG,RBをテクスチャー補間値として出力端子OUT6を介して出力する。
【0062】
【数5】
Figure 0004468631
【0063】
第2補償値抽出器202は、第1平均値計算部160から入力された第1平均値ΔR,ΔG,ΔBと第2平均値計算器192から入力された第2平均値ΔR”,ΔG”,ΔB”との平均値比LR,LG,LBを下記式6のように計算し、計算された平均値比LR,LG,LBをテクスチャー補間値として出力端子OUT6を介して出力する。
【0064】
【数6】
Figure 0004468631
【0065】
本発明によれば、前記の仮定とは異なって、入力端子IN2を介して側面映像が1枚のみ入力される場合、すなわち、入力端子IN2を介して右側映像または左側映像のみ入力される場合、残りの側面映像は、入力される側面映像を鏡対称に複写して求めることができる。従って、入力端子IN2を介して1枚の側面映像が入力されるとしても、第2平均値計算部162及び補償値抽出部164は、図14に示すように具現されて動作することができる。このために、第2平均値計算部162は、映像複写部(図示せず)を別途に設ける。ここで、映像複写部は、入力端子IN2を介して入力される1枚の側面映像を鏡複写し、鏡複写された結果を入力されていない他の1枚の側面映像として決定する。この時、複写をして残りの側面映像を決定するとしても、正面映像のRGB、すなわち、輝度分布を基準としてテクスチャーを補償するので、テクスチャーの品質が保障される。
【0066】
本発明によれば、前記第1平均値計算部160及び第2平均値計算部162または162Aの各々で求められる第1または第2平均値は、算術平均値またはメディアン平均値に当たる。
【0067】
前記図12に示す第140及び第142段階の役割及び前記基準部について説明すれば、下記の通りである。
【0068】
入力端子IN2を介して入力される顔の正面映像及び側面映像は、ほとんどの場合に他の照明及び他の輝度を有する。この時、照明の補償は通常極めて難しい。しかし、第140及び第142段階を行って生成されたテクスチャー補間値を用いて後述するようにテクスチャーを生成すれば、正面映像と側面映像との輝度差を補償することができる。このために、基準部を適宜に選定しなければならない。例えば、本発明によれば、基準部としては、正面映像及び側面映像においてテクスチャー差があまりない顔の所定部位、例えば、顔の頬を選択することができる。なぜならば、頬の辺りは緩やかな傾斜により正面映像及び側面映像でテクスチャー差が小さいからである。すなわち、頬の辺りの法線ベクトルの方向は顔の正面方向を基準として略45°傾いており、顔の側面方向を基準として略45°傾いているため、照明方向の偏差が大きくなければ、正面映像及び側面映像で類似の反射率を示す頬の部位が小さいテクスチャー差を有する。このように基準部として顔の頬を選択する場合、雑映や皮膚斑点等による誤差を減らすことができる。
【0069】
一方、第1または第2平均値計算部160または162で第1または第2平均値を計算する時に使われるピクセルの分布領域は、ユーザにより可変可能である。例えば、正面映像または側面映像が512ピクセル×512ピクセルであり、映像のうち顔が略25%を占めるとすれば、5ピクセルの直径を有する円に位置するピクセルが第1または第2平均値を計算するために使用できる。
【0070】
一方、第142段階後に、映像入力部166は、入力端子IN1を介して入力された変形されたモデル座標を分析し、分析された結果に応答して入力端子IN2を介してユーザから正面映像または側面映像を選択的に入力され、入力された正面映像または側面映像を補間部168に出力する(第144段階)。すなわち、映像入力部166は、補間部168で補間する映像が正面映像であるか側面映像であるかを決定する役割を果たし、このために、入力端子IN1を介して入力された変形されたモデル座標を分析する。
【0071】
第144段階後に、正面映像及び側面映像をピクセル座標により決定されたポリゴン単位にテクスチャー座標及びテクスチャー補間値を用いて補間し、補間された結果から変形されたテクスチャーを生成する(第146段階)。
【0072】
本発明の一実施例によれば、第146段階を行うために、テクスチャー変形部34Aは、補間部168、第1乗算部170及びテクスチャー生成器172を設けることができる。この場合、補間部168は、映像入力部166から入力された正面映像または側面映像を、ピクセル座標抽出部30から入力端子IN3を介して入力されたピクセル座標により決定されたポリゴン単位に、テクスチャー座標抽出部32から入力端子IN4を介して入力されたテクスチャー座標及び補償値抽出部164から入力されたテクスチャー補間値を用いて補間し、補間された結果を第1乗算部170に出力する。この時、第1乗算部170は、補間部168から入力された補間された結果を補償値抽出部164から入力されたテクスチャー補間値と乗算し、乗算された結果をテクスチャー生成器172に出力する。テクスチャー生成器172は、第1乗算部170から入力された乗算された結果から変形されたテクスチャーを生成し、生成された変形されたテクスチャーをブレンディング部174に出力する。
【0073】
この時、図13に示すように、第1乗算部170は、補間部168の代わりに補償値抽出部164に後続して設けられることができる。この場合、添付した図面に基づき、図2に示すテクスチャー変形部34の本発明による他の実施例の構成及び動作を説明する。
【0074】
図15は、図12に示す実施例12Aを行うテクスチャー変形部34の本発明による望ましい他の実施例34Bのブロック図である。図15に示すように、実施例12Aを行うテクスチャー変形部34の本発明による望ましい他の実施例34Bは、第1及び第2平均値計算部160及び162、補償値抽出部164、映像入力部166、第2乗算部210、補間部212、テクスチャー生成器214及びブレンディング部216を含む。
【0075】
本発明の他の実施例によれば、第146段階を行うために、テクスチャー変形部34Bは、第2乗算部210、補間部212及びテクスチャー生成器214を設けることができる。この場合、第2乗算部210は、映像入力部166から入力された正面映像または側面映像を補償値抽出部164から入力されたテクスチャー補間値と乗算し、乗算された結果を補間部212に出力する。この時、補間部212は、第2乗算部210から入力された乗算された結果を、ピクセル座標抽出部30から入力端子IN3を介して入力されたピクセル座標により決定されたポリゴン単位に、テクスチャー座標抽出部32から入力端子IN4を介して入力されたテクスチャー座標を用いて補間し、補間された結果をテクスチャー生成器214に出力する。この時、テクスチャー生成器214は、補間部212から入力された補間された結果から変形されたテクスチャーを生成し、生成されたテクスチャーをブレンディング部216に出力する。
【0076】
結局、補間部168または212は、映像入力部166を介して入力された正面映像及び側面映像内のテクスチャーを補間部を介してテクスチャーバッファ(図示せず)に複写する役割を果たす。ここで、テクスチャーバッファは、補間部168または212に組み込まれることができ、複写されたテクスチャーを一時的に記憶する役割を果たす。さらに、補間部168または212の補間は、線形補間に当たる。例えば、ポリゴンが三角形である場合、補間部168または212はポリゴンの3点のうち2辺をなすベクトルを求め、求められたベクトルを用いて線形補間を行うことにより正面映像及び側面映像内のテクスチャーをテクスチャーバッファに複写することができる。この時、テクスチャー生成器172または214は、第1乗算部170または補間部212で乗算または補間された結果を入力し、全体のポリゴンに対して入力された乗算または補間された結果を1枚の変形されたテクスチャーとして生成する役割を果たす。
【0077】
一方、本発明の他の実施例によれば、図13または図15に示しているのとは異なって、テクスチャー変形部34Aまたは34Bは、第1及び第2平均値計算部160及び162と補償値抽出部164とを設けなくても良い。この場合、図13に示す補間部168は、正面映像または側面映像をポリゴン単位にテクスチャー座標のみを用いて補間し、テクスチャー変形部34Aは、第1乗算部170を設けない。従って、テクスチャー生成器172は、第1乗算部170で乗算された結果の代わりに、補間部168から入力された補間された結果を用いて変形されたテクスチャーを生成する。さらに、図15に示す補間部212は、正面映像または側面映像をポリゴン単位にテクスチャー座標のみを用いて補間し、テクスチャー変形部34Bは、第2乗算部210を設けない。すなわち、補間部212は、第2乗算部210で乗算された結果の代わりに、映像入力部166から入力された正面映像または側面映像をポリゴン単位にテクスチャー座標のみを用いて補間する。
【0078】
第146段階後に、ブレンディング部174または216は、正面映像に対してテクスチャー生成器172または214から入力された変形されたテクスチャーと側面映像に対してテクスチャー生成器172または214から入力された変形されたテクスチャーとの境界に対する変形されたテクスチャーを境界両側の変形されたテクスチャーと混ぜて生成し、境界から両側に向って遠ざかるほど元の変形されたテクスチャーに戻るように変形されたテクスチャーを処理し、このようにして処理された境界映像、正面映像及び側面映像に対する変形されたテクスチャーを出力端子OUT5またはOUT7を介して出力する。このために、ブレンディング部174または216は、境界両側にある変形されたテクスチャーの平均値を計算し、計算された平均値を境界に対する変形されたテクスチャーとして決定することができる。例えば、ブレンディング部174または216は、正面映像と側面映像との連結部位で現れる異質感を解消する役割を果たす。
【0079】
一方、第12段階後に、記憶部36は、テクスチャー変形部34から入力された変形されたテクスチャー、テクスチャー座標抽出部32から入力されたテクスチャー座標及び入力端子IN1を介して入力された変形されたモデル座標のうち少なくとも何れか一つを記憶し、記憶されたテクスチャー及び/または座標を出力端子OUT1を介して出力する(第14段階)。この時、変形されたテクスチャー、テクスチャー座標及び変形されたモデル座標は、アニメーションの生成または静止映像の製作のために使用すること、あるいはモバイル装置などにおいて使用することができ、このために、記憶部36は、ユーザにより指定されたフォーマットにてテクスチャー及び/または座標を記憶する。
【0080】
図16は、従来のテクスチャー生成方法及び本発明によるテクスチャー生成方法を比較するための図面であって、図16(a)は、従来のテクスチャー生成方法により生成された3次元映像を2次元で表わした図面であり、図16(b)は、本発明によるテクスチャー生成方法により生成された3次元映像を2次元で表わした図面である。
【0081】
同じサイズのテクスチャーを3次元標準モデルに着せる場合、図16(a)に示すように、従来のテクスチャー生成方法により単なる円筒座標系を用いて生成された顔映像は、中心部がぼやけていることが分かる。しかし、本発明のテクスチャー生成方法により中心部を拡大して生成された映像は、図16(b)に示すように、中心部がはっきりとなったため、図16(a)に示す映像より鮮やかであることが分かる。
【0082】
【発明の効果】
以上述べたように、本発明による3次元顔モデルのためのテクスチャー生成方法及び装置は、テクスチャーを圧縮しないことから、従来とは異なって、ソフトウェア的にもハードウェア的にも圧縮及び復元のための部分を要さない。さらに、テクスチャー補間値を用いて変形されたテクスチャーを生成することから、照明がやや異なる状況で撮影された正面映像及び側面映像をもっても優れたテクスチャーを生成することができると共に、ポリゴン間の境界を自然に処理することができる。なおかつ、ユーザの主な関心部分、すなわち中心部に対するテクスチャー領域を関心度が低い部分である周辺部に対するテクスチャー領域を用いて広げることにより、限られたリソースを用いて従来の方法より優れたテクスチャーを生成することができ、その結果、一層鮮やかな3次元顔モデルが生成可能になる。
【図面の簡単な説明】
【図1】本発明によるテクスチャー生成方法を説明するためのフローチャートである。
【図2】図1に示すテクスチャー生成方法を行う本発明によるテクスチャー生成装置のブロック図である。
【図3】(a)ないし(c)は、中心部を説明するための図面である。
【図4】図1に示す第10段階に対する本発明による望ましい一実施例を説明するためのフローチャートである。
【図5】図4に示す実施例を行うピクセル座標抽出部の本発明による望ましい一実施例のブロック図である。
【図6】図1に示す第10段階に対する本発明による望ましい他の実施例を説明するためのフローチャートである。
【図7】図5に示す第2座標変換部の本発明による望ましい他の実施例のブロック図である。
【図8】図1に示す第10段階に対する本発明による望ましいさらに他の実施例を説明するためのフローチャートである。
【図9】図8に示す実施例を行うテクスチャー座標抽出部の本発明による一実施例のブロック図である。
【図10】座標変形部の実施例を説明するためのグラフである。
【図11】(a)及び(b)は、人の頭の形状を示す図面である。
【図12】図1に示す第12段階に対する本発明による望ましい一実施例を説明するためのフローチャートである。
【図13】図12に示す実施例を行うテクスチャー変形部の本発明による望ましい一実施例のブロック図である。
【図14】図13に示す第2平均値計算部及び補償値抽出部の本発明による望ましい実施例を説明するための図面である。
【図15】図12に示す実施例を行うテクスチャー変形部の本発明による望ましい他の実施例のブロック図である。
【図16】(a)及び(b)は、従来のテクスチャー生成方法及び本発明によるテクスチャー生成方法を比較するための図面である。

Claims (39)

  1. 少なくとも入力端子、処理装置、記憶装置、入力装置を含むコンピュータシステムに、
    (a)前記処理装置が、前記入力端子から顔の正面映像及び少なくとも1枚の側面映像に対して標準モデルを変形したモデルのモデル座標を生成し、生成された前記モデル座標を変換関数に代入することにより、中心部が周辺部より拡大されるようにマッピングされたテクスチャー座標とを得るとともに、前記変形されたモデルのモデル座標をピクセル座標に変換する段階と、
    (b)前記処理装置が、ユーザから提供された前記正面映像及び前記側面映像を前記ピクセル座標により決定されたポリゴン単位に前記テクスチャー座標を用いて補間し、補間された映像を前記変形されたモデルのテクスチャーとして決定し、前記記憶装置に記憶する段階とを実行し、
    前記中心部は、前記顔のうち目を中心としてユーザにより設定される領域であり、前記周辺部は、前記顔のうち前記中心部を除いた領域に当たることを特徴とする3次元顔モデルのためのテクスチャー生成方法。
  2. 前記テクスチャー生成方法は、
    前記(b)段階後に、前記変形されたテクスチャー、前記テクスチャー座標及び前記変形されたモデルのモデル座標のうち少なくとも何れか一つを記憶する段階を前記コンピュータシステムの前記処理装置に実行させることを特徴とする請求項1に記載の3次元顔モデルのためのテクスチャー生成方法。
  3. 前記(a)段階は、
    (a1)前記正面映像または前記側面映像に対する前記変形されたモデルのモデル座標をxy平面に投影する段階と、
    (a2)投影された結果の中心を移動して前記正面映像または前記側面映像に対する前記ピクセル座標を生成する段階とをコンピュータに実行させることを特徴とする請求項1に記載の3次元顔モデルのためのテクスチャー生成方法。
  4. 前記(a)段階は、
    (a3)前記側面映像に対する前記変形されたモデルのモデル座標をzy平面に投影する段階と、
    (a4)投影された結果の中心を移動して前記側面映像に対する前記ピクセル座標を生成する段階とを前記コンピュータシステムの前記処理装置に実行させることを特徴とする請求項1に記載の3次元顔モデルのためのテクスチャー生成方法。
  5. 前記(b)段階は、
    (b1)前記変形されたモデルのモデル座標に応じて前記正面映像または前記側面映像を選択的に受け入れる段階と、
    (b2)選択的に受け入れられた前記正面映像または前記側面映像を前記ポリゴン単位に前記テクスチャー座標を用いて補間して前記変形されたテクスチャーを生成する段階とを前記コンピュータシステムの前記処理装置に実行させることを特徴とする請求項1に記載の3次元顔モデルのためのテクスチャー生成方法。
  6. 前記(b)段階は、
    (b3)前記ユーザから与えられる前記正面映像の基準部の周りに位置するピクセルのRGB平均値である第1平均値、及び前記ユーザから与えられる前記側面映像の前記基準部の周りに位置するピクセルのRGB平均値である第2平均値を求める段階と、
    (b4)前記第1平均値と前記第2平均値との比をテクスチャー補間値として求め、前記(b1)段階へ進む段階とをさらに前記コンピュータシステムの前記処理装置に実行させ、
    前記基準部は、前記顔部位のうち前記正面映像及び前記側面映像間で最も少ないテクスチャー差を有する部位に該当し、
    前記(b2)段階は、前記正面映像または前記側面映像を補間する時に前記テクスチャー補間値を用いることを特徴とする請求項5に記載の3次元顔モデルのためのテクスチャー生成方法。
  7. 前記基準部は、前記顔の頬に当たることを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  8. 前記第1平均値及び前記第2平均値の各々は、算術平均値に当たることを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  9. 前記第1平均値及び前記第2平均値の各々は、メディアン平均値に当たることを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  10. 前記第1平均値及び前記第2平均値のうち所定値を超える平均値は、前記所定値として決定されることを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  11. 前記(b)段階は、
    (b5)前記(b2)段階後に、前記補間された結果を前記テクスチャー補間値と乗算し、乗算された結果を用いて前記変形されたテクスチャーを生成する段階をさらに前記コンピュータシステムの前記処理装置に実行させることを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  12. 前記(b)段階は、
    (b6)前記(b1)段階後に、選択的に受け入れられた前記正面映像または前記側面映像を前記テクスチャー補間値と乗算し、前記(b2)段階へ進む段階をさらに前記コンピュータシステムの前記処理装置に実行させ、
    前記(b2)段階は、前記(b6)段階で乗算された結果を前記ポリゴン単位に前記テクスチャー座標を用いて補間して前記変形されたテクスチャーを生成することを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  13. 前記(b)段階は、
    前記(b2)段階後に、前記正面映像に対する前記変形されたテクスチャーと前記側面映像に対する前記変形されたテクスチャーとの境界に対する前記変形されたテクスチャーを前記境界両側の前記変形されたテクスチャーと境界両側に存する変形されたテクスチャーの平均値を計算し、計算された平均値を境界に対する変形されたテクスチャーで決定することを特徴とする請求項6に記載の3次元顔モデルのためのテクスチャー生成方法。
  14. 前記(a)段階は、
    (a5)直交座標系で表わされる前記変形されたモデルのモデル座標を円筒座標系に変換する段階と、
    (a6)変換された前記円筒座標系で表わされる前記変形されたモデルのモデル座標を変形して前記テクスチャー座標を抽出する段階とを前記コンピュータシステムの前記処理装置に実行させることを特徴とする請求項1に記載の3次元顔モデルのためのテクスチャー生成方法。
  15. 前記(a6)段階は、
    変換された前記円筒座標系で表わされる前記変形されたモデルのモデル座標を連続関数により変形し、変形された結果を前記テクスチャー座標として決定することを特徴とする請求項14に記載の3次元顔モデルのためのテクスチャー生成方法。
  16. 前記円筒座標系で表わされる前記変形されたモデルのモデル座標(r,θ,yc)は、下記のように表わされる1次連続関数により変形されることを特徴とする請求項15に記載の3次元顔モデルのためのテクスチャー生成方法。
    Figure 0004468631
    (ここで、θm及びymは、前記テクスチャー座標を表わす。)
  17. 前記円筒座標系で表わされる前記変形されたモデルのモデル座標(r,θ,yc)は、下記のように表わされるtanh連続関数により変形されることを特徴とする請求項15に記載の3次元顔モデルのためのテクスチャー生成方法。
    Figure 0004468631
    (ここで、θm及びymは、前記テクスチャー座標を表わす。)
  18. 前記(a6)段階は、
    変換された前記円筒座標系で表わされる前記変形されたモデルのモデル座標を不連続関数により変形し、変形された結果を前記テクスチャー座標として決定することを特徴とする請求項14に記載の3次元顔モデルのためのテクスチャー生成方法。
  19. 前記(a6)段階は、
    変換された前記円筒座標系で表わされる前記変形されたモデルのモデル座標を所定テーブルにより変形し、変形された結果を前記テクスチャー座標として決定することを特徴とする請求項14に記載の3次元顔モデルのためのテクスチャー生成方法。
  20. 顔の正面映像及び少なくとも1枚の側面映像に対して標準モデルを変形したモデルのモデル座標を生成し、生成された前記モデル座標を変換関数に代入することにより、中心部が周辺部より拡大されるようにマッピングされたテクスチャー座標を出力するテクスチャー座標抽出部と、
    前記変形されたモデルのモデル座標をピクセル座標に変換し、変換された前記ピクセル座標を出力するピクセル座標抽出部と、
    前記正面映像または前記側面映像をユーザより入力し、前記ピクセル座標により決定されたポリゴン単位に前記テクスチャー座標により前記正面映像または側面映像を補間し、補間された映像前記変形されたモデルのテクスチャーとして出力するテクスチャー変形部とを備え、
    前記中心部は、前記顔のうち目を中心として前記ユーザにより設定される領域であり、前記周辺部は、前記顔のうち前記中心部を除いた領域に当たることを特徴とする3次元顔モデルのためのテクスチャー生成装置。
  21. 前記テクスチャー生成装置は、
    前記テクスチャー変形部から入力された前記変形されたテクスチャー、前記テクスチャー座標抽出部から入力された前記テクスチャー座標及び前記変形されたモデルのモデル座標のうち少なくとも何れか一つを記憶する記憶部をさらに備えることを特徴とする請求項20に記載の3次元顔モデルのためのテクスチャー生成装置。
  22. 前記ピクセル座標抽出部は、
    前記正面映像に対する前記変形されたモデルのモデル座標を前記ピクセル座標に変換し、変換された前記ピクセル座標を出力する第1座標変換部と、
    前記側面映像に対する前記変形されたモデルのモデル座標を前記ピクセル座標に変換し、変換された前記ピクセル座標を前記テクスチャー変形部に出力する第2座標変換部とを備えることを特徴とする請求項20に記載の3次元顔モデルのためのテクスチャー生成装置。
  23. 前記第1座標変換部は、
    前記正面映像に対する前記変形されたモデルのモデル座標をxy平面に投影し、投影された結果を出力する第1投影部と、
    前記第1投影部から入力された前記投影された結果の中心を移動して前記正面映像に対して生成された前記ピクセル座標を前記テクスチャー変形部に出力する第1中心移動部とを備えることを特徴とする請求項22に記載の3次元顔モデルのためのテクスチャー生成装置。
  24. 前記第2座標変換部は、
    前記側面映像に対する前記変形されたモデルのモデル座標をxy平面に投影し、投影された結果を出力する第2投影部と、
    前記第2投影部から入力された前記投影された結果の中心を移動して前記側面映像に対して生成された前記ピクセル座標を前記テクスチャー変形部に出力する第2中心移動部とを備えることを特徴とする請求項22に記載の3次元顔モデルのためのテクスチャー生成装置。
  25. 前記第2座標変換部は、
    前記側面映像に対する前記変形されたモデルのモデル座標をzy平面に投影し、投影された結果を出力する第3投影部と、
    前記第3投影部から入力された前記投影された結果の中心を移動して前記側面映像に対して生成された前記ピクセル座標を前記テクスチャー変形部に出力する第3中心移動部とを備えることを特徴とする請求項22に記載の3次元顔モデルのためのテクスチャー生成装置。
  26. 前記テクスチャー変形部は、
    前記変形されたモデルのモデル座標を分析し、分析された結果に応答して前記正面映像または前記側面映像を選択的に前記ユーザから入力される映像入力部と、
    前記映像入力部から入力された前記正面映像または前記側面映像を前記ピクセル座標により決定された前記ポリゴン単位に前記テクスチャー座標を用いて補間し、補間された結果を出力する補間部と、
    前記補間部から入力された前記補間された結果から前記変形されたテクスチャーを生成し、生成された前記変形されたテクスチャーを出力するテクスチャー生成器とを備えることを特徴とする請求項20に記載の3次元顔モデルのためのテクスチャー生成装置。
  27. 前記テクスチャー変形部は、
    前記ユーザから入力された前記正面映像の基準部の周りに位置するピクセルのRGB平均値である第1平均値を計算する第1平均値計算部と、
    前記ユーザから入力された前記側面映像の前記基準部の周りに位置するピクセルのRGB平均値である第2平均値を計算する第2平均値計算部と、
    前記第1平均値と前記第2平均値との比を計算し、計算された前記比をテクスチャー補間値として出力する補償値抽出部とをさらに備え、
    前記基準部は、前記顔部位のうち前記正面映像及び前記側面映像間で最も少ないテクスチャー差を有する部位に該当し、
    前記補間部は、前記正面映像または前記側面映像を補間する時に前記テクスチャー補間値を用いることを特徴とする請求項26に記載の3次元顔モデルのためのテクスチャー生成装置。
  28. 前記第1及び前記第2平均値計算部のうち少なくとも何れか一方は、所定値を超える第1または第2平均値を前記所定値として決定することを特徴とする請求項27に記載の3次元顔モデルのためのテクスチャー生成装置。
  29. 前記第2平均値計算部は、
    前記ユーザから入力された前記側面映像の一つである右側映像の前記基準部の周りに位置するピクセルのRGB平均値である前記第2平均値を計算し、計算された前記第2平均値を前記補償値抽出部に出力する第1平均値計算器と、
    前記ユーザから入力された前記側面映像の他の一枚である左側映像の前記基準部の周りに位置するピクセルのRGB平均値である前記第2平均値を計算し、計算された前記第2平均値を前記補償値抽出部に出力する第2平均値計算器とを備えることを特徴とする請求項27に記載の3次元顔モデルのためのテクスチャー生成装置。
  30. 前記補償値抽出部は、
    前記第1平均値計算部から入力された前記第1平均値と前記第1平均値計算器から入力された前記第2平均値との前記平均値比を計算し、計算された前記平均値比を前記テクスチャー補間値として出力する第1補償値抽出器と、
    前記第1平均値計算部から入力された前記第1平均値と前記第2平均値計算器から入力された前記第2平均値との前記平均値比を計算し、計算された前記平均値比を前記テクスチャー補間値として出力する第2補償値抽出器とを備えることを特徴とする請求項29に記載の3次元顔モデルのためのテクスチャー生成装置。
  31. 前記テクスチャー変形部は、
    前記補間部から入力された前記補間された結果を前記補償値抽出部から入力された前記テクスチャー補間値と乗算し、乗算された結果を前記テクスチャー生成器に出力する第1乗算部をさらに備え、
    前記テクスチャー生成器は、前記第1乗算部から入力された前記乗算された結果から前記変形されたテクスチャーを生成することを特徴とする請求項27に記載の3次元顔モデルのためのテクスチャー生成装置。
  32. 前記テクスチャー変形部は、
    前記映像入力部から入力された前記正面映像または前記側面映像を前記補償値抽出部から入力された前記テクスチャー補間値と乗算し、乗算された結果を前記補間部に出力する第2乗算部をさらに備え、
    前記補間部は、前記第2乗算部から入力された前記乗算された結果を前記ポリゴン単位に前記テクスチャー座標により補間することを特徴とする請求項27に記載の3次元顔モデルのためのテクスチャー生成装置。
  33. 前記テクスチャー変形部は、
    前記正面映像に対して前記テクスチャー生成器から入力された前記変形されたテクスチャーと前記側面映像に対して前記テクスチャー生成器から入力された前記変形されたテクスチャーとの境界に対する前記変形されたテクスチャーを前記境界両側の前記変形されたテクスチャーと境界両側に存する変形されたテクスチャーの平均値を計算し、計算された平均値を境界に対する変形されたテクスチャーで決定するブレンディング部をさらに備えることを特徴とする請求項27に記載の3次元顔モデルのためのテクスチャー生成装置。
  34. 前記テクスチャー座標生成部は、
    直交座標系で表わされる前記変形されたモデルのモデル座標を円筒座標系に変換し、変換された前記円筒座標系を出力する座標変換部と、
    前記座標変換部から入力された前記変形されたモデルのモデル座標を変形し、変形された結果を前記テクスチャー座標として出力する座標変形部とを備えることを特徴とする請求項20に記載の3次元顔モデルのためのテクスチャー生成装置。
  35. 前記座標変形部は、前記座標変換部から入力された前記変形されたモデルのモデル座標を連続関数により変形し、変形された結果を前記テクスチャー座標として出力することを特徴とする請求項34に記載の3次元顔モデルのためのテクスチャー生成装置。
  36. 前記座標変形部は、前記座標変換部から入力された前記変形されたモデルのモデル座標(r,θ,yc)を下記のように表わされる1次連続関数により変形することを特徴とする請求項35に記載の3次元顔モデルのためのテクスチャー生成装置。
    Figure 0004468631
    (ここで、θm及びymは、前記テクスチャー座標を表わす。)
  37. 前記座標変形部は、前記座標変換部から入力された前記変形されたモデルのモデル座標(r,θ,yc)を下記のように表わされるtanh連続関数により変形することを特徴とする請求項35に記載の3次元顔モデルのためのテクスチャー生成装置。
    Figure 0004468631
  38. 前記座標変形部は、前記座標変換部から入力された前記変形されたモデルのモデル座標を不連続関数により変形し、変形された結果を前記テクスチャー座標として出力することを特徴とする請求項34に記載の3次元顔モデルのためのテクスチャー生成装置。
  39. 前記座標変形部は、前記座標変換部からアドレスとして入力された前記変形されたモデルのモデル座標に応答して、記憶された前記テクスチャー座標のうち該当テクスチャー座標を読み出すルックアップテーブルを備えることを特徴とする請求項34に記載の3次元顔モデルのためのテクスチャー生成装置。
JP2002360184A 2001-12-13 2002-12-12 3次元顔モデルのためのテクスチャー生成方法及び装置 Expired - Fee Related JP4468631B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2001-0078963A KR100459892B1 (ko) 2001-12-13 2001-12-13 3차원 얼굴 모델을 위한 텍스쳐 생성 방법 및 장치
KR2001-78963 2001-12-13

Publications (3)

Publication Number Publication Date
JP2003216971A JP2003216971A (ja) 2003-07-31
JP2003216971A5 JP2003216971A5 (ja) 2006-07-27
JP4468631B2 true JP4468631B2 (ja) 2010-05-26

Family

ID=36686703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002360184A Expired - Fee Related JP4468631B2 (ja) 2001-12-13 2002-12-12 3次元顔モデルのためのテクスチャー生成方法及び装置

Country Status (5)

Country Link
US (1) US7139439B2 (ja)
EP (1) EP1320074B1 (ja)
JP (1) JP4468631B2 (ja)
KR (1) KR100459892B1 (ja)
DE (1) DE60207367T2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060233461A1 (en) * 2005-04-19 2006-10-19 Honeywell International Inc. Systems and methods for transforming 2d image domain data into a 3d dense range map
US8009880B2 (en) * 2007-05-11 2011-08-30 Microsoft Corporation Recovering parameters from a sub-optimal image
JP2010282611A (ja) * 2009-05-07 2010-12-16 Canon Inc 情報処理装置、情報処理方法及びプログラム
US8861800B2 (en) * 2010-07-19 2014-10-14 Carnegie Mellon University Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
CN101937576B (zh) * 2010-09-08 2013-02-06 北京航空航天大学 一种结合多物理属性的动态纹理瀑布建模方法
JP5789751B2 (ja) * 2011-08-11 2015-10-07 パナソニックIpマネジメント株式会社 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および画像処理装置
JP5450739B2 (ja) * 2012-08-30 2014-03-26 シャープ株式会社 画像処理装置及び画像表示装置
US9325936B2 (en) 2013-08-09 2016-04-26 Samsung Electronics Co., Ltd. Hybrid visual communication
KR101997500B1 (ko) 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
KR101680174B1 (ko) 2015-03-12 2016-11-28 경북대학교 산학협력단 3차원 모델로부터 색칠공부도안 생성 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102280361B1 (ko) * 2019-06-07 2021-07-22 주식회사 네오시큐 특징점 기반의 유사 얼굴 생성 방법과 이를 이용한 얼굴 인식 방법
US10872457B1 (en) * 2019-07-18 2020-12-22 Sony Corporation Facial texture map generation using single color image and depth information
CN111192308B (zh) * 2019-12-31 2023-11-03 浙江商汤科技开发有限公司 图像处理方法及装置、电子设备和计算机存储介质
KR102449987B1 (ko) * 2021-11-22 2022-10-04 스튜디오이온 주식회사 3d 얼굴 모델의 얼굴 애니메이션을 생성하기 위한 조인트 자동 셋업 방법과 그 컴퓨터 프로그램

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995003855A1 (en) * 1993-07-29 1995-02-09 Output Australia Pty. Ltd. Curved object embellishment process
US6016148A (en) * 1997-06-06 2000-01-18 Digital Equipment Corporation Automated mapping of facial images to animation wireframes topologies
GB2336735A (en) * 1998-04-24 1999-10-27 Daewoo Electronics Co Ltd Face image mapping
KR100360487B1 (ko) 2000-02-28 2002-11-13 삼성전자 주식회사 2차원 얼굴 영상의 3차원 얼굴 모델로의 텍스쳐 매핑 방법및 그 장치
US6903782B2 (en) * 2001-03-28 2005-06-07 Koninklijke Philips Electronics N.V. System and method for performing segmentation-based enhancements of a video image

Also Published As

Publication number Publication date
EP1320074B1 (en) 2005-11-16
US7139439B2 (en) 2006-11-21
US20030113036A1 (en) 2003-06-19
DE60207367D1 (de) 2005-12-22
KR100459892B1 (ko) 2004-12-03
KR20030048913A (ko) 2003-06-25
DE60207367T2 (de) 2006-08-03
JP2003216971A (ja) 2003-07-31
EP1320074A2 (en) 2003-06-18
EP1320074A3 (en) 2004-02-11

Similar Documents

Publication Publication Date Title
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
WO2020192568A1 (zh) 人脸图像生成方法、装置、设备及存储介质
US6717586B2 (en) Apparatus, method, program code, and storage medium for image processing
JP3782709B2 (ja) 画像生成の方法および装置
JP4468631B2 (ja) 3次元顔モデルのためのテクスチャー生成方法及び装置
CN112288665B (zh) 图像融合的方法、装置、存储介质及电子设备
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
CN109325990B (zh) 图像处理方法及图像处理装置、存储介质
EP3276578A1 (en) Method for depicting an object
WO2006122212A2 (en) Statistical rendering acceleration
CN111161392B (zh) 一种视频的生成方法、装置及计算机系统
WO2013177457A1 (en) Systems and methods for generating a 3-d model of a user for a virtual try-on product
JP3626144B2 (ja) 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
WO2006057267A1 (ja) 顔画像合成方法および顔画像合成装置
US6816159B2 (en) Incorporating a personalized wireframe image in a computer software application
JP4463597B2 (ja) 3次元描画モデル生成方法及びそのプログラム
JP2002324249A (ja) 画像表示システム及び方法
EP1306114A2 (en) Recording medium storing 3D model deformation program, 3D model deformation program, 3D deformation method and video game device
CN115330980A (zh) 表情迁移方法、装置、电子设备及存储介质
JP2001209823A (ja) ビデオゲームにおける三次元オブジェクト変形方法及びビデオゲーム装置、並びにビデオゲーム用のプログラムを記録したコンピュータ読み取り可能な記録媒体
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP3850080B2 (ja) 画像生成表示装置
JP2003085578A (ja) ゲーム情報、情報記憶媒体、及びゲーム装置
JP2004072553A (ja) 映像歪み補正方法及び同方法用プログラム
WO2022176719A1 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060614

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080528

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080609

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100225

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees