JP2008140385A - キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置 - Google Patents

キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置 Download PDF

Info

Publication number
JP2008140385A
JP2008140385A JP2007296764A JP2007296764A JP2008140385A JP 2008140385 A JP2008140385 A JP 2008140385A JP 2007296764 A JP2007296764 A JP 2007296764A JP 2007296764 A JP2007296764 A JP 2007296764A JP 2008140385 A JP2008140385 A JP 2008140385A
Authority
JP
Japan
Prior art keywords
map
normal map
bump
expression
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007296764A
Other languages
English (en)
Other versions
JP4842242B2 (ja
Inventor
Hang Kee Kim
キム、ハン、キ
Beom Ryeol Lee
イ、ボン、リョル
Choong Gyoo Lim
リム、チョン、ギョ
Junae Kim
キム、ジュネ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020070091685A external-priority patent/KR100900823B1/ko
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2008140385A publication Critical patent/JP2008140385A/ja
Application granted granted Critical
Publication of JP4842242B2 publication Critical patent/JP4842242B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Abstract

【課題】本発明は、キャラクタアニメーション時の皮膚しわのレンダリングを、最適な速度で、かつ事実的な表現で、リアルタイムに行う方法を提供する。
【解決手段】本発明は、各表情別の皮膚のしわをノーマルマップ(Normal Map)とバンプマップ(Bump Map)で表現し、これらのマップを無表情の時、ノーマルマップ、バンプマップとの差異を計算して一般化された皮膚しわのデータ及び加重値データを生成し、希望のキャラクタの皮膚しわのデータを表情別に一般化されたしわデータを用いて生成し、現在アニメーションの時間tにおける表情別の加重値を用いて最終の皮膚しわを表すノーマルマップ、バンプマップを計算した後、これを画面にレンダリングする。
【選択図】図1

Description

本発明は、キャラクタアニメーション時に皮膚のしわのリアルタイム表現方法及び装置に関するものであって、さらに詳細には、リアルタイム3次元グラフィックスキャラクタのレンダリング分野において、シミュレーション、ゲーム、教育などでキャラクタの表現に用いられ、キャラクタの皮膚のしわを自然に表現することができるキャラクタアニメーションの際、皮膚のしわのリアルタイム表現方法及び装置に関するものである。
本発明は、情報通信部及び情報通信研究振興院のIT新成長動力核心技術開発事業の一環として遂行した研究より導出されたものである。[課題管理番号:2006-S-044-01、課題名:マルチコーアCPU及びMPU基盤クロットプラットフォームゲーム技術]
現在リアルタイム3次元グラフィックス分野は、ハードウエアの改善と活用の増加に従って非常に早い速度で発展している。この中、キャラクタの皮膚のレンダリングは、シミュレーションだけではなく、ゲーム、教育用としても多く用いられている、このようなキャラクタの皮膚をレンダリングするにおいて、早くて事実感のある(現実的な)表現をするための色々な試しが行われてきた。
従来の技術としては、解剖学的な観点から見た筋肉モデル基盤のしわの表現、例題モデルに基盤をおいた顔のアニメーション、表面の内側(Subsurface)を用いた皮膚の表現及びパラメータ(Parameter)基盤の顔のアニメーションなどがあった。
この中、最も単純な方法は、皮膚の表現に必要なだけのポリゴンメッシュを生成した後、これらメッシュの頂点を細部調整することである。しかし、このような方法は、細かい表現をするために全体にポリゴン(頂点3つでなった三角形らの集合)を使用しているので、非常に多い数のポリゴンが必要であり、また、3Dレンダリングの際、非常に多く時間がかかり、モデリングも難しい。
他の方法は、ノーマルマップ(Normal Map)とバンプマップ(Bump Map)などを用いることである。
ノーマルマップとは、キャラクタモデルの法線(Normal)ベクタをテクスチャで表現したもので、キャラクタに広がった色相テクスチャ(Diffuse Color Texture)を被せて表現するように、光(Light)、環境マップ等を計算するとき、ノーマルマップを用いることである。
バンプマップとは、キャラクタモデルの高低を灰色(Gray Scale)で表現したもので、顔の微細な高低を表現することで顔の微妙な表現が可能である。
このようなノーマルマップとバンプマップは、皮膚の微細な屈曲をテクスチャ(Texture)を用いることで、容易で、さらに早くレンダリングできるように助力する。
顔のアニメーション際に、皮膚のしわを表現するため、解剖学的な筋肉モデルを基盤とした皮膚しわの方式が用いられてきた。しかし、この方法は、非常に多い計算を必要とし、頂点基盤モデルを用いているので、リアルタイムの3Dキャラクタアニメーションには用い難い。
一方、解剖学的な観点から見た筋肉モデル基盤のしわの表現方法に対しては、本出願人が2004年12月14日付で出願した大韓民国出願番号第10-2004-0106837号で、その発明の名称は『解剖データを用いた顔のアニメーション生成システム及びその方法』に次のような内容で開示されている。
前記従来の技術より、多数の顔モデルに該当する頭蓋骨、頭蓋骨幾何情報及び筋肉情報を貯蔵している解剖データの貯蔵手段と、顔のアニメーションを生成するため、外部から顔モデルを取り込まれることにより、前記取り込まれた顔モデルと最も類似する頭蓋骨を前記解剖データの貯蔵手段より検索し、前記検索した頭蓋骨に所定の個数の筋肉を配置するための筋肉配置手段と、前記筋肉配置手段において筋肉が配置された頭蓋骨に皮下脂肪層及び皮膚を結合させて顔のメッシュを生成し、筋肉の動きによる皮膚の動きを定義するための皮膚の生成手段と、及び外部から入力された筋肉調節信号によって前記生成した顔のメッシュより該当筋肉とそれと連結された皮下脂肪層及び皮膚を収縮、または弛緩させて特定表情を有する顔のメッシュを生成して貯蔵するための表情生成手段とを含む。
このような従来技術は、膨大なデータの処理により、その顔の表情の表現において、優れた効果を発揮し、また、キャラクタの表現において自然さを表現することができる。しかし、キャラクタアニメーションにおいて、誇張された表情の表現が必要な時に、誇張された表情が現実的(事実感があるよう)に表現できないなどの問題点がある。
本発明は、ノーマルマップとバンプマップに該当しわに対応する加重値を合成して顔のアニメーションの際、皮膚のしわを効果的に表現することができる方法及び装置と、キャラクタアニメーションの際、例題キャラクタモデルから抽出された皮膚しわのデータを一般キャラクタモデルに適用することができる皮膚のしわのリアルタイム表現方法及び装置を提供することにある。
本発明によるキャラクタアニメーションの際の皮膚のしわのリアルタイム表現方法は、現在時間でノーマルマップを合成するため、キャラクタの表情を取り出して、この表情らのしわが表現されたノーマルマップでの皮膚しわの加重値を計算する第1の計算段階と、計算段階で計算された加重値を加えて最終のノーマルマップを計算する第2の計算段階と、第2の計算段階で計算された最終のノーマルマップを用いて皮膚しわをレンダリングし、皮膚のしわを表現するレンダリング段階とで構成されることを特徴とする。
また、本発明によるキャラクタアニメーションの際の皮膚しわのリアルタイム表現方法は、現在時間でバンプマップを合成するため、キャラクタの表情を取り出して、この表情のしわが表現されたバンプマップでの皮膚しわの加重値を計算する第1の計算段階と、計算段階で計算された加重値を与えて最終のバンプマップを計算する第2の計算段階と、第2の計算段階で計算された最終のバンプマップを用いて皮膚しわをレンダリングし、皮膚のしわを表現する表現段階とで構成されることを特徴とする。
本発明によるキャラクタアニメーションの際の皮膚のしわのリアルタイム表現装置は、必要な表情の例題を予めモデリングしておいた後、これらを補間する方式でノーマルマップ化するノーマルマップモジュールと、必要な表情の例題を予めモデリングしておいた後、これらを補間する方式でバンプマップ化するバンプマップモジュールと、ノーマルマップ及びバンプマップに加重値を合成するための表情に対応する加重値を付与して合成することで、最終のノーマルマップ、または最終のバンプマップを求める計算モジュールと、加重値が採用されたノーマルマップ及びバンプマップを用いてレンダリングしてキャラクタのしわを表現するレンダリングモジュールとで構成されることを特徴とする。
以上で説明したように、キャラクタアニメーションの際の加重値により皮膚しわを容易に計算できるので、本発明は、筋肉基盤の表現と比較して、早くて更に安く自然に皮膚しわを表現できる効果がある。
また、本発明は一般化された皮膚しわのノーマルマップデータを用いると、全てのキャラクタに容易に適用して皮膚しわを表現することができる効果がある。
さらに、本発明は、どのモデルを使用したかによってしわの表現が異なるので、若い人の顔に年の取った人の顔モデルを適用すると無表情の時には構わないが、表情が変わると年の取った人のようにしわが見られるように設定することができる効果がある。
上の方式を全てGPUのH/W Shaderで処理することでリアルタイムのレンダリングが可能である。
よって、3次元のゲームやシミュレーション、教育等の実質的なキャラクタの皮膚を扱う分野において、以前よりさらに早くて事実感のある(現実的な)皮膚しわを表現することができるようになる。
以下、添付の図面を参照して本発明の構成についてさらに詳細に説明する。
図1は、本発明の一実施の形態に係るキャラクタアニメーション時に皮膚のしわをリアルタイムで表現するためのシステム構成を示したブロック図である。
図1を参照してみると、先ず本発明のGPU(Graphics Processing Unit)10は、ノーマルマップモジュール12、バンプマップモジュール14、計算モジュール16及びレンダリングモジュール18を含む。
GPU10は、データを取り込んでグラフィックスを処理する処理装置である。グラフィックスのトランスフォーム(Transform)とライティング(Lighting)を処理する。
ノーマルマップモジュール12は、インタフェース装置などを介して入力されたグラフィックスデータをノーマルマップ化する。ノーマルマップモジュール12は、入力されたグラフィックスデータに例題基盤(case-based)モデルを用いてノーマルマップ化する。即ち、必要な表情の例題(case)を予めモデリング(ポリゴン及びノーマルマップ、バンプマップ)しておいた後、これらを補間する方式でノーマルマップ化する。
そして、バンプマップモジュール14もノーマルマップモジュール12と同じ方式で、インタフェース装置などを介して受信したグラフィックスデータを例題基盤モデルを用いてバンプマップ化する。
計算モジュール16は、現在時間tに対応する加重値を合成するための表情らを取り出し、ノーマルマップ(Normal Map)、またはバンプマップ(Bump map)に対応する表情に加重値を与えて(Weighted)合成することで、最終ノーマルマップ、または最終のバンプマップを求める。即ち、ノーマルマップらを補間する時、各表情には、部位別に加重値(Weight)をおいて加重値によって補間する作業を行う。
このようなノーマルマップの合成及びバンプマップの合成にGPU10のシェーダ(Shader)を用いてテクスチャのピクセル値を処理し、しわの合成効果を一層事実的に発揮することができる。即ち、シェーダを用いてさらに効果的に合成することができる。
万一、GPU10の最大の同時テクスチャ個数が現在合成しようとする表情の個数より少ない場合、何回かに分けて計算することで修正可能である。この場合、以前段階(前の段階)で計算された合成ノーマルマップと加重値との合計が現在段階の入力に入り、追加的な表情と合成して修正する。
そして、レンダリングモジュール18は、このようなアルゴリズムを適用して加重値が採用されたノーマルマップ及びバンプマップを用いてレンダリングしてキャラクタのしわを表現し、このようにしわをリアルタイムで表現したキャラクタアニメーションをディスプレイ20を通じてディスプレイさせる。
図2は、本発明の一実施の形態に係るキャラクタアニメーション時に皮膚のしわをリアルタイムで表現する課程を順次に示したフローチャートであり、図3a及び図3bは、本発明の一実施の形態に係るキャラクタの顔をレンダリングする時に用いられるそれぞれのバンプマップ及びカラーマップであり、図4a及び図4bは、本発明の一実施の形態に係るキャラクタが笑っている表情をレンダリングする時に用いられるバンプマップと加重値マップである。
図2乃至図4bを参照してみると、前記のような目的を達成するためのキャラクタアニメーションの皮膚しわのレンダリング方法は、図2のように、現在の時間tで合成するためにキャラクタの表情を取り出し、この表情らのしわが表現されたノーマルマップ(Normal Map)、またはバンプマップ(Bump Map)に図4bのように加重値が付与された(Weighted)加重値マップを合成することで、即ち、加重値を計算してこれを適用することで、最終のノーマルマップ、または最終のバンプマップを求め、これを用いて皮膚しわをレンダリングして皮膚のしわを表現する。この際、図4bは、笑い顔に用いられる加重値マップなので、図4bを採用して加重値を適用すると笑い顔のキャラクタを得ることができる。
先ず、本発明は顔の皮膚を基準として説明する。しかし、本発明は、顔だけではなくキャラクタの全部分の表面のしわを表現することができる方法である。
また、本発明においてノーマルマップとバンプマップは適用する方式が同様なので、ノーマルマップを基準として説明することにする。本発明において皮膚しわの合成に必要なノーマルマップ、バンプマップデータは例題基盤モデルを用い、例題基盤モデルを用いてノーマルマップモジュール12はノーマルマップを製作する。同様に、バンプアップモジュール14も例題基盤モデルを用いてバンプマップを製作する(S10)。言い換えると、ノーマルマップ及びバンプマップを製作する方式は必要な表情らの例題を予めモデリング(ポリゴン及びノーマルマップ、バンプマップ)しておいた後、これらを補間する方式である。
それぞれノーマルマップモジュール12及びバンプマップモジュール14によって製作されたノーマルマップ及びバンプマップは、3Dスキャナ装備を用いたり、2Dイメージを見てデザイナが直接製作したり、その他自動化された道具を用いて製作した各表情例題モデルのしわデータを取得する。各表情の例題モデルのしわデータは各表情別の皮膚しわが含まれたノーマルマップらを補間する時、各表情には部位別に加重値(Weight)を計算する(S20)。
加重値は、0〜1との間の値である。0に近いほどその部位が表情に与える影響が小さく、1に近いほど部位が表情に与える影響が大きい。
現在表情において加重値データは、(無表情ノーマルマップ−現在表情ノーマルマップ)を初期データとして用いる。そして、バンプマップを用いる場合には、図3aのバンプマップを初期データとして用いる。所望の場所におけるしわデータや、より微細な表情が必要な場合は、後で手作業で処理する。
加重値データは、ノーマルマップのアルファ部分に貯蔵することができる。最近のテクスチャは実数(float)値を表現できるので、これを活用するとさらに効果的である。
各表情による皮膚しわが表現されたノーマルマップ、バンプマップの例題モデルを作り、これらのモデルを加重値を採用して補間によって合成する(S30)。図4bには、笑う表情に用いられる加重値マップが示されている。皮膚しわのノーマルマップの合成は、次の数学式1によって表現される。
(数学式1)
Normal(x, y) =
Sum( Normal(expr, x, y) * Weight(expr, x, y)) / Sum(Weight(expr, x, y))
数学式1において、exprは合成に必要な表情を1…nまで並べた時のインデックスを示す。例えば、笑い顔、怒った顔、泣き顔等の多数のモデリングされた例題らである。
そして、Normal(x、y)は、最終結果である皮膚しわのノーマルマップに対する(x、y)座標での加重値が採用されたノーマル値である。
Normal(expr、x、y)は、現在合成する表情exprの皮膚しわの表現であるノーマルマップ(x、y)座標でのノーマル値を示す。Weight(expr、x、y)は、現在合成する表情exprの(x、y)座標における加重値である。
顔のアニメーションのように表現される場合、時間tにおける現在の顔のアニメーションと皮膚しわのノーマルマップの合成は、次の式によって表現される。
(数学式2)
Normal(t, x, y) =
Sum( Normal(expr, x, y) * Weight(expr, x, y) * TimedWeight(t, expr)) / Sum(Weight(expr, x, y) * TimedWeight(t, expr))
Normal(t、x、y)は、現在時間tで最終結果である皮膚しわのノーマルマップに対する(x、y)座標におけるノーマル値である。
TimeWeight(t、expr)は、現在時間tにおいて該当しわの表情表現(expression)の合成加重値である。このようなノーマルマップの合成は、GPU10のハードウエア(H/W)であるシェーダを用いるとさらに効果的である。
シェーダの入力で各表情の皮膚しわのノーマルマップテクスチャと各表情別加重値が入り、出力では前記の合成式の数学式1及び2を用いて各ピクセル別に合成された結果の加重値が適用されたノーマルマップが出る。
万一、GPU10の最大同時テクスチャの個数が現在合成しようとする表情の個数より少ない場合、何回かに分けて計算することでアニメーションフレームに合せて表現が可能である。この場合、以前段階で計算された合成ノーマルマップと加重値の合計が現在段階の入力に入り、追加的な表情と合成することになってアニメーションの際、よりスムーズな映像が得られる。
1つの例題の表情ノーマルマップデータを用いて他のキャラクタのノーマルマップに適用してしわに加重値を与えた表情を生成するためには、一般化された表情ノーマルマップの差異データと加重値が必要である。一般化された表情ノーマルマップの差異データ(一般NormalMapDiff(expr、x、y))は、現在例題のノーマルマップデータから計算され、その式は次の数学式3と同様である。
(数学式3)
一般NormalMapDiff(expr、 x、y) = Normal(expr、x、 y) − Normal(無表情、 x、y)
前記の数学式3を用いて各表情でのノーマルマップの差異データと加重値(Weight)を計算する。このように抽出されたノーマルマップの差異データは、他のキャラクタの表情にも適用することができる。他のキャラクタの表情に適用される場合の数学式は、次の数学式4と同様である。
(数学式4)
他のキャラクタNomal(expr、x、y)
=他のキャラクタNormal(無表情、x、y)+一般NormalMapDiff(expr、x、y)
このように、他のキャラクタの無表情の時には、ノーマルマップだけで多様な表情のノーマルマップを作ることができる。図4aのバンプマップは加重値を適用して笑っている表情を生成したバンプマップである。この際、ポリゴンが参照するテクスチャの幾何構造が図3a乃至図4bに示されているように同一でなければならない。即ち、一般の例題モデルにおけるテクスチャ上に目の部位が他のキャラクタのテクスチャ上の目の部位と一致するように作らなければならない。そして、このような表情が被られたキャラクタの顔に図3bのようにカラーを被せてしわが形成されたキャラクタを完成する。
これまでは、ノーマルマップを主に説明したが、バンプマップでも同じアルゴリズムが適用される。そして、このようなアルゴリズムを適用して加重値が採用されたノーマルマップ及びバンプマップを用いてレンダリングモジュール18でレンダリングする(S40)。レンダリングされたデータは、ディスプレイ20を介して表示される。
このようにすることで、どんな顔にも表情アニメーションの際、皮膚のしわを表現することができるようになる。
顔の部位ではない他の部位も同一な方式で用いることができる。それぞれの動作によるノーマルマップを一般化させ、これらを合成することで皮膚のしわを表現することができるようになる。
本発明の一実施の形態に係るキャラクタアニメーション時の皮膚のしわをリアルタイムで表現するための装置構成を示したブロック図。 発明の一実施の形態に係るキャラクタアニメーション時の皮膚のしわをリアルタイムで表現する過程を順次的に示したプローチャート。 本発明の一実施の形態に係るキャラクタの顔に用いられるバンプマップ。 本発明の一実施の形態に係るキャラクタの顔に用いられるカラーマップ(Albedo)。 本発明の一実施の形態に係るキャラクタが笑っている表情を示したバンプマップ。 本発明の一実施の形態に係るキャラクタが笑っている表情を示した加重値(Weight)マップ。
符号の説明
10:GPU 12:ノーマルマップモジュール
14:バンプマップモジュール 16:計算モジュール
18:レンダリングモジュール 20:ディスプレイ

Claims (8)

  1. 現在時間でノーマルマップを合成するため、キャラクタの表情を取り出して、この表情らのしわが表現されたノーマルマップに皮膚しわの加重値を計算する第1計算段階と、
    前記第1計算段階で計算された加重値を与えて最終ノーマルマップを計算する第2計算段階と、
    前記第2計算段階で計算された最終ノーマルマップを用いて皮膚しわをレンダリングし、皮膚のしわを表現するレンダリング段階とで構成されることを特徴とするキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  2. 現在時間でバンプマップを合成するため、キャラクタの表情を取り出してこの表情らのしわが表現されたバンプマップに皮膚しわの加重値を計算する第1計算段階と、
    前記第1計算段階で計算された加重値を与えて最終のバンプマップを計算する第2計算段階と、
    前記第2計算段階で計算された最終のバンプマップを用いて皮膚しわをレンダリングし、皮膚のしわを表現する表現段階とで構成されることを特徴とするキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  3. 前記バンプマップ及び前記ノーマルマップのデータは、モデリングされた例題基盤モデルを用いて製作することを特徴とする請求項1または2記載のキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  4. 前記ノーマルマップ合成またはバンプマップ合成にGPU(Graphics Processing Unit)のシェーダを用いてテクスチャのピクセル値を処理することを特徴とする請求項1または2記載のキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  5. 前記GPUの最大同時テクスチャの個数が現在合成しようとする表情の個数より少ない場合、複数回に分けて以前段階で計算された合成ノーマルマップまたは合成バンプマップと加重値の合計が現在段階の入力に入り、追加的な表情と合成して修正することを特徴とする請求項4記載のキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  6. 前記ノーマルマップまたは前記バンプマップに他のキャラクタの前記最終のノーマルマップまたは前記最終のバンプマップをそれぞれ適用するため、一般化された表情のノーマルマップの差異データを求めて前記ノーマルマップの差異データと加重値を計算することを特徴とする請求項1または2記載のキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  7. 前記ノーマルマップまたは前記バンプマップに他のキャラクタの前記最終のノーマルマップまたは前記最終のバンプマップをそれぞれ適用するため、前記ポリゴンが参照するテクスチャの幾何構造が同一の状態で適用されることを特徴とする請求項6記載のキャラクタアニメーション時の皮膚のしわのリアルタイム表現方法。
  8. 必要な表情の例題を予めモデリングしておいた後、これらを補間する方式でノーマルマップ化するノーマルマップモジュールと、
    必要な表情の例題を予めモデリングしておいた後、これらを補間する方式でバンプマップ化するバンプマップモジュールと、
    前記ノーマルマップ及びバンプマップに加重値を合成するための表情に対応する加重値を付与して合成することで、最終ノーマルマップまたは最終のバンプマップを求める計算モジュールと、
    加重値が採用されたノーマルマップ及びバンプマップを用いてレンダリングし、キャラクタのしわを表現するレンダリングモジュールと、を含めてなることを特徴とするキャラクタアニメーション時の皮膚のしわのリアルタイム表現装置。
JP2007296764A 2006-12-02 2007-11-15 キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置 Expired - Fee Related JP4842242B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2006-0121089 2006-12-02
KR20060121089 2006-12-02
KR1020070091685A KR100900823B1 (ko) 2006-12-02 2007-09-10 캐릭터 애니메이션 시 피부의 주름 실시간 표현 방법 및장치
KR10-2007-0091685 2007-09-10

Publications (2)

Publication Number Publication Date
JP2008140385A true JP2008140385A (ja) 2008-06-19
JP4842242B2 JP4842242B2 (ja) 2011-12-21

Family

ID=39475183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007296764A Expired - Fee Related JP4842242B2 (ja) 2006-12-02 2007-11-15 キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置

Country Status (2)

Country Link
US (1) US20080129738A1 (ja)
JP (1) JP4842242B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8115774B2 (en) * 2006-07-28 2012-02-14 Sony Computer Entertainment America Llc Application of selective regions of a normal map based on joint position in a three-dimensional model
US8064724B2 (en) * 2007-10-25 2011-11-22 Hewlett-Packard Development Company, L.P. Apparatus, and associated method, for displaying data using data painting of an asymmetrical facial image
US20120242664A1 (en) * 2011-03-25 2012-09-27 Microsoft Corporation Accelerometer-based lighting and effects for mobile devices
CN105701107A (zh) * 2014-11-27 2016-06-22 高德信息技术有限公司 一种电子地图的文字渲染方法及装置
CN107180445B (zh) * 2016-03-10 2019-12-10 腾讯科技(深圳)有限公司 一种动画模型的表情控制方法和装置
CN110648384B (zh) * 2019-06-19 2023-01-03 北京巴别时代科技股份有限公司 卡通风格化渲染方法
US11222446B2 (en) * 2019-09-19 2022-01-11 Prêt-À-Template Criação E Comercialização De Software De Moda Ltda. Virtual face chart
CN112037121A (zh) * 2020-08-19 2020-12-04 北京字节跳动网络技术有限公司 一种图片处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305894A (ja) * 1995-04-28 1996-11-22 Atr Tsushin Syst Kenkyusho:Kk しわの表現可能な三次元像生成装置
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
JP2006506742A (ja) * 2002-11-15 2006-02-23 イーエスシー・エンターテイメント,ア・カリフォルニア・コーポレーション 皮膚又は類似物をデジタル式にレンダリングする方法
JP2006094494A (ja) * 2004-09-13 2006-04-06 Microsoft Corp グラフィックス処理装置を使用した加速ビデオ符号化
JP2006163944A (ja) * 2004-12-08 2006-06-22 Sony Computer Entertainment Inc 法線マップデータ生成方法、描画処理方法および描画処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6307576B1 (en) * 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
US6256038B1 (en) * 1998-12-10 2001-07-03 The Board Of Trustees Of The Leland Stanford Junior University Parameterized surface fitting technique having independent control of fitting and parameterization
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
US6828972B2 (en) * 2002-04-24 2004-12-07 Microsoft Corp. System and method for expression mapping
US6822653B2 (en) * 2002-06-28 2004-11-23 Microsoft Corporation Methods and system for general skinning via hardware accelerators
US7259764B2 (en) * 2003-05-14 2007-08-21 Pixar Defrobulated angles for character joint representation
US7307633B2 (en) * 2003-05-14 2007-12-11 Pixar Statistical dynamic collisions method and apparatus utilizing skin collision points to create a skin collision response
US20040227761A1 (en) * 2003-05-14 2004-11-18 Pixar Statistical dynamic modeling method and apparatus
US7298374B2 (en) * 2005-08-02 2007-11-20 Sony Computer Entertainment America Inc. Scheme for providing wrinkled look in computer simulation of materials
US7535472B2 (en) * 2006-04-05 2009-05-19 Seoul National University Industry Foundation Method for generating intuitive quasi-eigen faces
US7859538B2 (en) * 2006-07-31 2010-12-28 Autodesk, Inc Converting deformation data for a mesh to animation data for a skeleton, skinning and shading in a runtime computer graphics animation engine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305894A (ja) * 1995-04-28 1996-11-22 Atr Tsushin Syst Kenkyusho:Kk しわの表現可能な三次元像生成装置
JP2006506742A (ja) * 2002-11-15 2006-02-23 イーエスシー・エンターテイメント,ア・カリフォルニア・コーポレーション 皮膚又は類似物をデジタル式にレンダリングする方法
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
JP2006094494A (ja) * 2004-09-13 2006-04-06 Microsoft Corp グラフィックス処理装置を使用した加速ビデオ符号化
JP2006163944A (ja) * 2004-12-08 2006-06-22 Sony Computer Entertainment Inc 法線マップデータ生成方法、描画処理方法および描画処理装置

Also Published As

Publication number Publication date
US20080129738A1 (en) 2008-06-05
JP4842242B2 (ja) 2011-12-21

Similar Documents

Publication Publication Date Title
JP4842242B2 (ja) キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置
JP5829371B2 (ja) モーションキャプチャデータを使用する顔面アニメーション
KR100720309B1 (ko) 자동 3차원 모델링 시스템 및 방법
CN108335345B (zh) 面部动画模型的控制方法及装置、计算设备
US7983884B2 (en) Water particle manipulation
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
KR100900823B1 (ko) 캐릭터 애니메이션 시 피부의 주름 실시간 표현 방법 및장치
KR101794731B1 (ko) 2차원 캐릭터 그림데이터를 애니메이션이 가능한 3차원 모델로 변형하는 방법 및 장치
US8180613B1 (en) Wrinkles on fabric software
CA2565600C (en) Dynamic wrinkle mapping
CN113838176A (zh) 模型的训练方法、三维人脸图像生成方法及设备
JP2011159329A (ja) 自動3dモデリングシステム及び方法
CN110458924B (zh) 一种三维脸部模型建立方法、装置和电子设备
Orvalho et al. Transferring the rig and animations from a character to different face models
US8009171B2 (en) Image processing apparatus and method, and program
US8952968B1 (en) Wave modeling for computer-generated imagery using intersection prevention on water surfaces
JP2739447B2 (ja) しわの表現可能な三次元像生成装置
KR20130052241A (ko) 사용자 스케치기반 지형 저작 시스템 및 방법
CN115023742A (zh) 具有详细褶皱的面部网格变形
US20230394734A1 (en) Generating Machine-Learned Inverse Rig Models
CN111111199A (zh) 一种基于图片提取的角色三维建模系统及方法
JP2023044195A (ja) 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム
CN117745915A (zh) 一种模型渲染方法、装置、设备及存储介质
CN117765155A (zh) 一种表情重定向驱动方法及虚拟显示设备
JP2009093609A (ja) 画像処理用プログラム、当該プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100917

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101217

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110117

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110217

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110506

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111005

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees