JPH1011609A - 動画キャラクタの生成装置及び方法 - Google Patents

動画キャラクタの生成装置及び方法

Info

Publication number
JPH1011609A
JPH1011609A JP6481297A JP6481297A JPH1011609A JP H1011609 A JPH1011609 A JP H1011609A JP 6481297 A JP6481297 A JP 6481297A JP 6481297 A JP6481297 A JP 6481297A JP H1011609 A JPH1011609 A JP H1011609A
Authority
JP
Japan
Prior art keywords
depiction
dimensional
character
real time
depictions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6481297A
Other languages
English (en)
Inventor
Godfrey Maybin Parkin
ゴッドフレイ、メイビン、パーキン
William Goodman Carl
カール、ウィリアム、ゴッドマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CYBERGLASS Ltd
Original Assignee
CYBERGLASS Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CYBERGLASS Ltd filed Critical CYBERGLASS Ltd
Publication of JPH1011609A publication Critical patent/JPH1011609A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Abstract

(57)【要約】 【構成】 アバターは以下の手順で生成される: i )以下を提供する: a )キャラクタの構造の3次元描写(2 ):当該3次元
描写はリアルタイムに変化してキャラクタの動きを表現
する; b )前記構造描写の上にマッピングされる、キャラクタ
の表面(1 )の3次元描写; c )前記表面の頻繁に変化する部分、例えば顔の表情を
生成するのに用いられる部分、の2次元描写、及び ii)前記a )、b )、c )を合成して、動画キャラクタ
の合成描写を生成する。 【効果】 頻繁に変化する部分は2次元的に描写される
ので、該アバターを表示するのにより少ない処理能力及
びROM 容量で済む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、動画キャラクタの
生成装置及び方法に関する。より詳しくは、好適な実施
例に示されるような、リアルタイムのレンダリングによ
るバーチュアルアクター(アバター)の生成装置(特に
プログラミングされたパーソナルコンピュータ)及び方
法に関する。
【0002】
【従来の技術】アーケードゲームに登場したり映画製作
に用いられるような、フォトリアリスティックなアバタ
ーを生成するための技術が存在する。そのような技術は
通常次のいずれかに依拠する:(1 )3Dレーザースキャ
ン・・・非常に高価であり、これによって生成されるモ
デルは非常に高い処理能力及び多くのメモリを要し、従
来のパーソナルコンピュータ(PC)ではたとえペンティ
アムのチップを搭載していても動作できない;(2 )フ
ルモーションビデオ(FMV )・・・一連のフィルムをコ
ンピュータ操作可能なフォーマットに変換する。上記の
技術は、主に以下の欠点を有する。
【0003】
【発明の解決しようとする課題】
a )FMV のキャラクタは、平面的な外観をしており感情
移入できない b )FMV は、精彩のない色をしている c )FMV とレーザースキャンは、どちらも多額の開発費
を要する d )そのゲームプレイは、たいくつで、単調で、あらか
じめ撮影されたシーンや、あらかじめレンダリングされ
たシーンしか登場しない e )どちらも、大容量のROM を要する。
【0004】上記以外に、開発者があらかじめレンダリ
ングされたフォトリアリスティックではないシーンを代
替物として挿入することもある。しかし、 a )そのようなシーンは対話性がないので、ゲームプレ
ーが中断されることは避けられないb )そのようなシー
ンは、一様に現実味に欠けている c )開発に非常に長い時間を要する。
【0005】さらに、当該方法では、FMV の柔軟性のな
さや過剰なROM の使用を解消する事はできない。 現
在、ゲーム開発者で、PC環境のゲームにリアルタイムの
フォトリアリスティックな3Dアバターを用いている者は
いない。それは、現在の3Dスキャン技術がこのアプリケ
ーションには不適当であるためと考えられる。特に、現
在のフルボディ型スキャナは、ゆうに10万ポリゴンを
超えるサイズのモデルを生成するが、そのようなサイズ
のモデルはPC上でリアルタイムにレンダリングできな
い。そのようなリアルタイムのレンダリングではポリゴ
ン数を100 分の1 に縮小する必要があり、当該目的用の
ポリゴン縮小ツールでは満足のゆく結果は得られない。
【0006】本発明の目的は、上記欠点のいくつか又は
全てを克服もしくは減じることである。
【0007】
【課題を解決するための手段】従って、本発明の一形態
として、表示用の動画キャラクタを生成する方法を提供
する。当該方法は以下のステップを有する: i )以下を提供するステップ: a )キャラクタの構造の3次元描写:当該3次元描写は
リアルタイムに変化してキャラクタの動きを表現する; b )前記構造描写の上にマッピングされる、キャラクタ
の表面の3次元描写; c )前記表面の頻繁に変化する部分の2次元描写、及び ii)前記a )、b )、c )を合成して、動画キャラクタ
の合成描写を生成するステップ。
【0008】また、本発明の別な一形態として、動画キ
ャラクタを生成する装置を提供する。該装置は以下を有
する: i )以下を提供するメモリ手段: a )キャラクタの構造の3次元描写:当該3次元描写は
リアルタイムに変化してキャラクタの動きを表現する; b )前記構造描写の上にマッピングされる、キャラクタ
の表面の3次元描写; c )前記表面の頻繁に変化する部分の2次元描写、及び ii)前記a )、b )、c )を合成して、動画キャラクタ
の合成描写を生成する処理手段。
【0009】従属請求項は好適な実施例を定義してい
る。
【0010】
【作用・効果】好適な実施例において、本発明は、関連
データの入力によって命令が実行されるような環境と相
互作用し、ロングショットからクロースアップに移る際
に欠けたり化けたりしないなど、数多くの伝統的な写真
・映画技術を駆使する事ができ、くちびるの同期や、広
範な会話や気分を表すのに充分な顔の表情を提供するな
どして、PCでのリアルタイムのレンダリングに対する現
存する制約の全てを取り払い、まるで人間のように動き
振る舞う完全に3次元的なキャラクタを生成することを
可能にする。
【0011】好適な実施例において、キャラクタの素早
く変化する部分によって会話や顔の表情を伝えるため
に、数多くの音素や目と額の動きを模倣したものが用い
られる。顔を上半分と下半分に分け、テキスチャーマッ
プにそれぞれを置き換えるならば、多彩かつ充分に受け
入れ可能な表情や口の動きを、経済的に伝えることがで
きることが分かっている。
【0012】このような実施例において、2次元描写c
)は、例えば顔の目の部分及び口の部分から成り、望
ましくは額の部分を含む。これらの部分は、写真から得
られるのが望ましい。従って、見ている者は、他の表現
技術では不可能なやり方で自分の視覚体験を該キャラク
タに投影するので、頭のかすかな単純な動きでさえも真
に迫った感情を伝える事ができる。
【0013】キャラクタの素早く変化する部分は2次元
的に描写されるので(従って、ワイヤフレームモデルの
場合には、表情の変化は表面下のポリゴンの動きで生成
されるために、キャラクタの方向が変化するたびに計算
し直す必要があるが、そのような計算が不要となる)、
アバターを表示するのに、より低い処理能力、少ないメ
モリ、狭い帯域幅(インターネット等で像が転送される
場合)を要する。
【0014】アバターの生成手順の実施例を以下に記載
する。正面及び横から被写体の頭を撮影し(35mmフォー
マットで)、幾何学的配列の作成のために、直角の物体
である目盛定め物標(あらかじめ印のついた直角定規)
を撮影写真中に水平に置く。 固定リストの音素と顔の
表情のそれぞれについて被写体を真正面から撮影する。
【0015】幾何学的配列の作成のために、二つの視点
から被写体の体を撮影する。3Dプロッターソフト(例え
ば、CAD に以前使用されていたWireframe Xpress)を用
いて、手書きで頂点及びポリゴンを個別に描き、頭の表
面構造を描写する。写真のテキスチャーマップの全て
を、(Aldus PhotoShop 等の様々なグラフィックスパッ
ケージを用いて)色と照明とに関して同期するように補
正する。
【0016】幾何学的配列を再分割し、テキスチャーマ
ップをそれぞれの領域に適切に割り当てる。 腕と足の
それぞれについて後ろと前の部分を作成し、テキスチャ
ーマップを補正する。逆キネマティクス階層を定義し、
キャプチャーモーションを用いて動画化する(例えば、
Flock of Birdsや、Puppeteer 、3D Studio の組み合わ
せによって)。
【0017】例えばArgonaut's BRenderリアルタイム3D
エンジンの下で動作するような、適切な3Dエンジン(MU
MM-E等)によって処理する。この結果、通常のペンティ
アムPCにおいて、毎秒12〜16フレームのレンダリング率
で、リアルタイムで人間を模倣した動画像が得られる。
【0018】
【発明の実施の形態】本発明の好適な実施例を、添付図
1 〜3 によって以下に説明する。図1 は、人間のキャラ
クタの正面(A )及び横顔(B )の表面描写の上に構造
描写をマッピングする様子を示す図2 は、上記キャラク
タの正面で頻繁に変化する部分(額、目、口)の異なる
状態を示す。これらの部分は表情描写に用いられる。
【0019】図3 は、上記キャラクタの体の動きをキャ
プチャーするために用いられる装置を、ダイアグラムで
表したものである。頭部と顔の詳しい生成過程を以下に
説明する。 ステージ1 :撮影 I.フォーマット:カメラの印画フォーマットは、アプリ
ケーションがカメラ位置を常時計算できるように、35mm
とする。 II. レンズ:レンズの焦点距離は100mm 前後が理想であ
る。これにより、遠近法均一化効果が利用できる。 III.照明:照明は散光とし、顔の両側のバランスを均一
に保たなければならない。暖かい雰囲気の映像で非常に
良い結果が得られている。効果的な撮影には、100 〜40
0ASAの昼光バランスフィルムを用い、タングステン照明
の下で被写体を撮影するのがよいこと明らかとなってい
る。 IV. トライアンギュレーション(三角測量)及び目盛定
め:図1A及び図1Bに示されるように、該被写体は目盛定
め物標Sと一緒に撮影される。該目盛定め物標は、被写
体のあごの下から縦方向に約200mm (8 インチ)離れた
位置にある時によく機能を発揮する。当該顔を正確に撮
影するためには、該物標の正面は当該顔に平行でなけれ
ばならない。該物標のZ 軸は該被写体の左肩の上を後ろ
に伸びている。
【0020】この結果得られる写真1 を用いて被写体表
面の3次元描写が生成され、該3次元描写の上に、該被
写体の下部構造であるポリゴンモデル2 がマッピングさ
れ、完成品のビデオゲームの使用時に、該ビデオゲーム
を動作させているコンピュータによって、該被写体は3
次元的な処理がなされる。当該処理は、後で詳細に説明
される。 V.角度:直角に撮影された写真、すなわち、横顔(0
度)及び顔全体(90度)の写真によって最良の結果が得
られる。横顔の写真には頭全体が入っていなければなら
ない。 VI. 口の動き:以下の動きと表情を有する必要がある。 1. 左を見ている目 2. 右を見ている目 3. 疑い深い表情 4. 笑い 5. 大きく開けた目 6. 上に上がった眉毛 7. 怒り/苦悩 8. 悲しい表情 9. 半分閉じた目 10.完全に閉じた目 11.「Em」(M の発音) 12.「eff 」(F の発音) 13.「Oh」(O の発音) 14.「Yew 」(U の発音) 15.「En」(N の発音) 16.「Arh 」(R の発音) 17.「Ae」(A の発音) 上記の動きについては、あごの線が極端に変形しないよ
うに注意する必要がある。口の動きを撮影している間中
あごを軽く閉じた状態に保っておくと、該極端な変形の
危険を減ずることができる。
【0021】図2A 及び図2B は、典型的な表情を示し
ている。額、目、口の部分のそれぞれの異なる状態は2
次元的に記録・格納され、完成品のゲームプログラムに
よって用いられる。該状態は、ゲーム利用者の指令に応
じる等の方法でゲームプレイによって、適切に合成して
用いなければならない(例えば、眉をしかめ目は左を向
き口はすぼめる等)。 ステージ2 :顔のデジタル化 I.左側のウィンドウで横顔(0 度)の作業を行い、右側
のウィンドウで顔全体(90度)の作業を行う。 II. まず第一に目盛定め物標Sをデジタル化する。物標
設定ウィンドウの目盛定めデータと像中の点のピクセル
位置とが少しずれている時には、矛盾が生じることがあ
る。通常、該症状は、目盛定めのグリッド(格子)と三
角の一点との間の不整合であり、三角が目盛定め平面か
ら約15度〜25度の範囲でずれることがしばしば起こる。
該症状に対しては、物標設定ウィンドウで長さを一つ選
択し、1/4〜半インチの範囲で伸ばすか短縮するかし、
三角を目盛定め平面の中に入れる。 III.図1A 及び図1B は、写真による表面描写1の上に
描かれた3Dポリゴン構造描写2を示す。まず最初に横
顔の線を描く。のどの線から出発して、あごから口、鼻
の下、鼻柱を通って額、そして頭髪の生え際に至る。該
線10(図1A 及び図1B )は10〜12の点からなり、オー
プンパスでなければならない。 IV. 上記の横顔の線は、その後Excel に取り込まれ、真
っ直ぐなX 軸とされる。Excel による.3D ファイルの作
業過程は、後で説明される。 V.次に、頭髪の生え際から左耳の底部、さらにあごへと
線が描かれる。該線を滑らかにするためには、やはり10
〜12の点を要すると思われる。該線は、あごの底部で横
顔とつながる。 VI. 複雑な部分で最初に描くのは目である。目は、平面
として描き、虹彩の中に目の中心点を置く。該点を横顔
において前後に動かすことで湾曲を調整できる。眉毛に
沿ってオープンパスを描く。まつげの下にもオープンパ
スを描く。これらの線を顔とつなげる。 VII.次に描く複雑な部分は鼻である。特に下の方が複雑
である。遠近図法ツールを頻繁に用いて横顔の線が歪ま
ないようにする。これは簡単な作業である。この結果得
られる風刺画のような幾何学的配列が最終的なモデルに
用いられる。特に、上記二つの像の鼻の下の点が対応す
るように注意する。 VIII. まつげの直ぐ上のこめかみを横切る水平な線で額
を描く。できるだけ面の数を少なくする。ただし、額の
角度の曲がりが鈍すぎもせず、鋭すぎもしないようにす
る。 IX. まつげから鼻にかけて目のくぼみを描く。該線を正
面の顔の他の部分の基本とする。X.口の線を、2つ乃至
3つ以下の点を用いて伸ばす。該線を用いて鼻とあごの
間の面を生成する。動画化されたテキスチャーマップが
幾何学的配列に合わなくなるおそれがあるので、口を過
剰にモデル化しないようにする。 XII.顔の残りを三角につなげる。その結果、顔の左側が
完成する。 XIII. 次に頭の側面と背面を完成させる。側面と背面を
注意深くすっかり横顔から取り出す。まず新しいプロジ
ェクトを開始させ、次には写真の位置を取り替える。こ
れにより、左のウィンドウには顔全体が、右のウィンド
ウには横顔が表示される。 XIV.頭髪の生え際の中心からあごの一番下まで、つまり
あごの線の終点のできるだけ近くまで、外郭を回って線
を描く。該線を、頭部の中心に埋め込まれた点まで描い
て終わる。 XV. 耳の輪郭を描く。必要に応じて耳の中に一つか二つ
の点を入れ、目と同じように面を形成する。 XVI.頭の中心から左端にかけて、髪を横切る線を描く。 XVII. 頭の背面については、横切っている背筋曲線から
うなじ即ち髪の一番下まで垂直線を描く。面を閉じる時
に、点選択ツールを用いて(バーターをクリックして)
点を区別できるようにする。XVIII.最後に首と肩を完成
させる。頭部から描かれた線の終着点は、該モデルの残
りの構造に基づいて決定される。該終着点をえりの線ま
でとするか、首をさらにのどや鎖骨にまで伸ばすか、こ
のいずれかが適切と思われる。 XIX.新しいプロジェクトを開始させる。横顔を左のウィ
ンドウに、顔全体を右のウィンドウに表示させる。 XX. 首は本質的に円柱形である。首は、頭部に食い込ん
で該底面と結合するようモデル化されている。首の周り
の6つの点による3本の線で充分と思われる。完成した
なら前記同様面を閉じる。ステージ3 :ミラーリング I.顔、頭/ 髪、首にミラーリングを施す。顔について
は、幾何学的配列にミラーリングを施す必要があること
に加えてテキスチャーマップを移動させる必要があるこ
とから、他の二つの部分より注意を要する。 II. ミラーリングでは、ミラーと呼ばれるdos コマンド
ライン機能を用いる。該コマンドライン機能の構文は簡
単な、ミラーファイル名.3dp新ファイル名.3dp、であ
る。該機能をそれぞれの部分について実行する。 III.ミラーリング過程は完全に安定しているわけではな
い。新たな.3dpファイルをExcel もしくは別な表計算プ
ログラム(Excel の動作は確認済み)に取り込む必要が
ある。ミラーに関する問題点は、ミラーがモデルの溶接
線に沿ってではなく、プロジェクトの中心点の周りに幾
何学的配列を反映することである。さらに、ミラーによ
ってはテキスチャーマップにおける頂点座標のピクセル
位置は移動しない。その結果、新しい幾何学的配列から
新しい座標を得るのがピクセル位置であるというよりむ
しろ、幾何学的配列のみならずテキスチャーマップもミ
ラーリングが施される。該効果は幾分直感に反するもの
である。 IV..3dp ファイルは、ASCII を基底にしたテキストファ
イルであり、スペース範囲を設定した変数と定義される
構造を有する。 V.Excel でファイルを開く。ファイルタイプにテキスト
ファイルを指定する(拡張子は.txt、.csv、.prn)。フ
ァイル拡張子リストに*.3dp を加え、顔のファイルを選
択する。 VI.Excelは「wizard」機能の一つを呼び出すので、その
第1ページでedelimitedi をファイルタイプに選択す
る。第2ページで、「タブ」をオフにして「スペース」
をオンにする。第3ページで、データタイプに「テキス
ト」を選択する。 VII.ファイルが開く。コラムA 〜J の全てを選択し、コ
ラム幅を20にする。「センター」アイコンをクリック
する。しばしば、「選択されたものが大きすぎます。ア
ンドゥせずに続けますか?」というエラーメッセージが
表示される。「続ける」と応答する。該ファイルは作業
可能となる。VIII. 該ファイルからおよそ3分の1進ん
だ所に、頂点のXYZ 座標を有する点データベースがあ
る。最初の3つの点の値は、目盛定め物標に関するもの
なので無視する。第4の点からn 番目の点は顔半分の元
の値である。x 値を表す左側のコラムを見る。次の2つ
の点に注意を要する。第1:該コラムの前半は負の値を
有する。第2:最初の点10〜12は同じ値である。こ
れらの最初の点群は横顔として定義されている。この値
に注目する。点の値が負から正に変わる所まで該コラム
を下に進む。該複数の値はミラーリングが施された顔半
分のX 座標値である。該複数の値を変更する。IX. 該複
数の値を変更するには、数式SUM (値)−(2*.x)を用
いる。ここで、xは横顔の線からの値である。該コラム
の後半の値全てを該数式によって変更する。 X.該ファイルの一番上に点データベースがある。該点デ
ータベースによって、左と右の写真の頂点のx-y ピクセ
ル座標と同じ位置の値が得られる。4つのコラムが(点
の番号から離れて)存在する。該4つのコラムは、左側
x 、左側y 、右側x 、右側y である。ここで関係のある
のは、右側x のコラムである。再度、値の矛盾を記録し
てミラー位置を検出し、溶接線の数値を特定する。点デ
ータベースと同様のプロセスを実行する必要がある。し
かし、ここで用いられる数式は、SUM (y 値+y )であ
る。ここで、y は溶接線からのピクセルの値である。 XI. 上記手順を、首と髪/ 頭についても実行する。しか
し、ピクセルデータベースにはミラーリングを施さな
い。対称形の髪形は3Dスタジオで修正する方が簡単であ
る。 XII.次に、.3dpファイルを3Dスタジオに変換し、テキス
チャー頂点を割り当てる。ここでは、コンバートと呼ば
れるコマンドラインツールを用いる。構文は、変換ファ
イル名.3dp-r右側写真名.bmp matx.tga である。 XIII. テキスチャーマップファイルについても作業した
方が良いと思われる。髪は、外側に向けてクローンする
必要があるかもしれない。首テキスチャーの首について
も同様である。さらに、クローンによって額の髪をきれ
いにする。 XIV.ファイルを.3dsファイルにし、頂点を結合して必要
な所に移動する。 ステージ4 :くちびるの同期 I.基本となる顔全体の像を用いて、Animator Proに移動
する。以降の顔の動きの全てをフリックファイルとして
搭載する。 II. 顔の中の動く部分、つまり目の回りと口の領域を切
り取る。その際、一緒に動く皮膚の領域を含むように注
意する。 III.元の顔全体の写真を用いて、上記の正しい位置で切
り取った領域を該対称の基本的な顔の上に加える。 IV. フレームからフレームに移動する写真の領域(図2A
及び図2Bに示される3 、4 、5 の中のどれか)を切り取
る。例えば、動く目の一つを切り取り、像の元の位置に
貼り付ける。さらに、C(clip) ツール及びL(lasso)ツー
ルを用いて周囲の皮膚を選択する。C(clip) ツール及び
M(move) ツールを用いて皮膚の部分をつまむ。アポスト
ロフィマーク「' 」を用いてこれらを最後のフリックに
貼り付ける。 V.フリックファイルには以後17の表情に対応する元の
写真からの像の全てが格納されることになる。必要に応
じて、顔の動きを滑らかにするのに必要な中間のフレー
ムも格納される。当該フリックファイルによって、3Dス
タジオのレンダリングの実行の際に、流動的な顔の動き
が顔の幾何学的配列の静的限度を超えないように調整さ
れる。最後の、Brender 又はRendermorphicsへのエクス
ポート用に、独立フレームを生成する。 VI. 最終動画化ファイル(.cel形式で格納されている)
を3ds の顔の幾何学的配列に適用する。当該顔と頭/ 髪
を結ぶ階層を構築し、その中心点を首筋に置く。これに
より、フォトリアリスティックな顔の表情と合わせて、
本物に近い頭の動きが得られる。順次修正を施してゆ
く。
【0022】標準技術によって、キャラクタの本体を動
画化し、頭と合成する事ができる。体の動きをキャプチ
ャーする一つの方法を、図3 に示す。当該図において、
対象体8 の関節に磁石が取り付けられており、その位置
は標準タイプの電磁位置センサー7 によって検出され
る。そのような技術から派生して得られるアバターは、
コンピュータゲームによって制御し、表示することがで
きる。
【0023】本発明は、本明細書に開示される内容か
ら、新たな合成もしくは派生する合成に発展させ得る。
特に、キャラクタの素早く変化する部分の写真映像を、
2次元に関わらず、どんなものであれ採用することがで
きる。
【図面の簡単な説明】
【図1】Aは人間のキャラクタの正面図である。Bは人
間のキャラクタの横顔を示す図である。
【図2】頻繁に変化する部分(額、目、口)の異なる状
態を示す図である。
【図3】前記キャラクタの体の動きをキャプチャーする
ために用いられる装置をダイアグラムで表した図であ
る。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 カール、ウィリアム、ゴッドマン イギリス、ケイティー12 5エイチエイ チ、ハーシャム、カーマルト ガーデンズ 19

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 表示用の動画キャラクタを生成する方法
    であって、以下のステップを有する: i )以下を提供するステップ: a )キャラクタの構造の3次元描写:当該3次元描写は
    リアルタイムに変化してキャラクタの動きを表現する; b )前記構造描写の上にマッピングされる、キャラクタ
    の表面の3次元描写; c )前記表面の頻繁に変化する部分の2次元描写、及び ii)前記a )、b )、c )を合成して、動画キャラクタ
    の合成描写を生成するステップ。
  2. 【請求項2】 請求項1の方法において、前記合成描写
    はリアルタイムに生成される。
  3. 【請求項3】 請求項1もしくは請求項2の方法におい
    て、前記合成描写は、ユーザーからのコマンドに対し
    て、対話的に表示される。
  4. 【請求項4】 先行するいずれかの請求項の方法におい
    て、前記表面の頻繁に変化する部分の2次元描写c )が
    2つもしくは3つ異なって生成され、前記描写a )及び
    b )と合成される。
  5. 【請求項5】 先行するいずれかの請求項の方法におい
    て、(一ないし複数の)前記2次元描写c )は、顔の表
    情の(一ないし複数の)部分である。
  6. 【請求項6】 先行するいずれかの請求項の方法におい
    て、前記表面の3次元描写b )は写真から生成される。
  7. 【請求項7】 先行するいずれかの請求項の方法におい
    て、前記表面の3次元描写a )は、多数のポリゴンを有
    する。
  8. 【請求項8】 先行するいずれかの請求項の方法におい
    て、前記合成ステップii)は、PCで作動するプログラム
    によって実行され、前記キャラクタは前記PCのディスプ
    レイ上にリアルタイムで表示される。
  9. 【請求項9】 動画キャラクタを生成する装置であっ
    て、以下を有する: i )以下を提供するメモリ手段: a )キャラクタの構造の3次元描写:当該3次元描写は
    リアルタイムに変化してキャラクタの動きを表現する; b )前記構造描写の上にマッピングされる、キャラクタ
    の表面の3次元描写; c )前記表面の頻繁に変化する部分の2次元描写、及び ii)前記a )、b )、c )を合成して、動画キャラクタ
    の合成描写を生成する処理手段。
  10. 【請求項10】 請求項9の装置において、前記処理手
    段は前記合成描写をリアルタイムに生成する。
  11. 【請求項11】 請求項9もしくは請求項10の装置に
    おいて、前記処理手段は、ユーザー制御による入力手段
    を備えており、ユーザーからのコマンドに対して、対話
    的に前記合成描写を表示する。
  12. 【請求項12】 先行する9〜11のいずれかの請求項
    の装置は、異なる2つないし3つの、前記表面の頻繁に
    変化する部分の2次元描写c )と前記描写a)及びb )
    とを合成する。
  13. 【請求項13】 先行する9〜12のいずれかの請求項
    の装置において、(一ないし複数の)前記2次元描写c
    )は、顔の表情の(一ないし複数の)部分である。
  14. 【請求項14】 先行する9〜13のいずれかの請求項
    の装置において、前記表面の3次元描写b )は写真から
    生成される。
  15. 【請求項15】 先行するいずれかの請求項の装置にお
    いて、前記表面の3次元描写a )は、多数のポリゴンを
    定義する座標を有する。
  16. 【請求項16】 先行する9〜15のいずれかの請求項
    の装置はPCであって、当該PCは、当該PCの備えるディス
    プレイにリアルタイムでキャラクタを表示する。
  17. 【請求項17】 以下を備えるアバターである: a )動画化された3次元的構造描写; b )前記構造描写の上にマッピングされる、3次元的表
    面描写; c )前記アバター表面の頻繁に変化する部分の2次元的
    描写。
  18. 【請求項18】 添付図1〜3を参照して上に実質的に
    記載された、動画キャラクタの生成方法。
JP6481297A 1996-05-16 1997-03-18 動画キャラクタの生成装置及び方法 Pending JPH1011609A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB9610212.4A GB9610212D0 (en) 1996-05-16 1996-05-16 Method and apparatus for generating moving characters
GB96102124 1996-05-16

Publications (1)

Publication Number Publication Date
JPH1011609A true JPH1011609A (ja) 1998-01-16

Family

ID=10793774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6481297A Pending JPH1011609A (ja) 1996-05-16 1997-03-18 動画キャラクタの生成装置及び方法

Country Status (4)

Country Link
EP (1) EP0807902A3 (ja)
JP (1) JPH1011609A (ja)
CA (1) CA2201843A1 (ja)
GB (1) GB9610212D0 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100317137B1 (ko) * 1999-01-19 2001-12-22 윤덕용 얼굴 표정 애니메이션 방법
KR100366210B1 (ko) * 2000-01-24 2002-12-31 한국과학기술원 인간의 얼굴 모델을 생성하는 모델러 제작방법 및 기록매체
JP2006503355A (ja) * 2002-10-15 2006-01-26 ノキア コーポレイション 3次元画像処理
US7620206B2 (en) 1998-05-19 2009-11-17 Sony Computer Entertainment Inc. Image processing device and method, and distribution medium

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2004212509B2 (en) * 1998-04-13 2005-09-08 Google Llc Face recognition from video images
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
DE69910757T2 (de) * 1998-04-13 2004-06-17 Eyematic Interfaces, Inc., Santa Monica Wavelet-basierte gesichtsbewegungserfassung für avataranimation
GB9811695D0 (en) * 1998-06-01 1998-07-29 Tricorder Technology Plc Facial image processing method and apparatus
JP2000107447A (ja) * 1998-10-08 2000-04-18 Konami Co Ltd ビデオゲーム装置、ゲーム画像表示方法、及び記録媒体
US7050655B2 (en) 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US6714661B2 (en) 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US7050624B2 (en) 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
GB0004165D0 (en) * 2000-02-22 2000-04-12 Digimask Limited System for virtual three-dimensional object creation and use
KR20010000310A (ko) * 2000-09-08 2001-01-05 심재홍 개인 캐릭터 제작방법 및 그 방법을 기록한 기록매체
US6661418B1 (en) * 2001-01-22 2003-12-09 Digital Animations Limited Character animation system
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
US6853379B2 (en) 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6817979B2 (en) 2002-06-28 2004-11-16 Nokia Corporation System and method for interacting with a user's virtual physiological model via a mobile terminal
AU2007276715B2 (en) * 2006-07-21 2012-04-26 Anthony James Trothe System for creating a personalised 3D animated effigy
KR20110137973A (ko) * 2010-06-18 2011-12-26 삼성전자주식회사 컴퓨터시스템 및 그 제어방법
CN104995662B (zh) * 2013-03-20 2020-08-11 英特尔公司 用于管理化身的设备和方法以及用于动画化化身的设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5561745A (en) * 1992-10-16 1996-10-01 Evans & Sutherland Computer Corp. Computer graphics for animation by time-sequenced textures
US5426460A (en) * 1993-12-17 1995-06-20 At&T Corp. Virtual multimedia service for mass market connectivity

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620206B2 (en) 1998-05-19 2009-11-17 Sony Computer Entertainment Inc. Image processing device and method, and distribution medium
KR100317137B1 (ko) * 1999-01-19 2001-12-22 윤덕용 얼굴 표정 애니메이션 방법
KR100366210B1 (ko) * 2000-01-24 2002-12-31 한국과학기술원 인간의 얼굴 모델을 생성하는 모델러 제작방법 및 기록매체
JP2006503355A (ja) * 2002-10-15 2006-01-26 ノキア コーポレイション 3次元画像処理

Also Published As

Publication number Publication date
GB9610212D0 (en) 1996-07-24
EP0807902A2 (en) 1997-11-19
EP0807902A3 (en) 1998-07-15
CA2201843A1 (en) 1997-11-16

Similar Documents

Publication Publication Date Title
JPH1011609A (ja) 動画キャラクタの生成装置及び方法
JP3288353B2 (ja) 顔イメージから開始して3d顔モデルを作る方法
US8139068B2 (en) Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
Pighin et al. Synthesizing realistic facial expressions from photographs
US6559849B1 (en) Animation of linear items
DiPaola Extending the range of facial types
US6097396A (en) Method and apparatus for creating lifelike digital representation of hair and other fine-grained images
US9196074B1 (en) Refining facial animation models
KR100327541B1 (ko) 3차원 얼굴 모델링 시스템 및 모델링 방법
US20030001834A1 (en) Methods and apparatuses for controlling transformation of two and three-dimensional images
EP0883090A2 (en) Method for generating photo-realistic animated characters
JP4404650B2 (ja) 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム
KR100372811B1 (ko) 2차원 얼굴 정면 이미지를 이용한 3차원 얼굴 모델 생성방법
Johnson Towards enhanced visual clarity of sign language avatars through recreation of fine facial detail
KR101780496B1 (ko) 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법
US7477253B2 (en) Storage medium storing animation image generating program
WO1998035320A1 (en) Animation system and method
JPH08297751A (ja) 三次元モデルの作成方法および装置
JP2739447B2 (ja) しわの表現可能な三次元像生成装置
Utsugi et al. E-IMPACT: Exaggerated illustrations using multi-perspective animation control tree structure
Nendya et al. Facial rigging for 3d character
KR100366210B1 (ko) 인간의 얼굴 모델을 생성하는 모델러 제작방법 및 기록매체
Karunaratne et al. A new efficient expression generation and automatic cloning method for multimedia actors
Bibliowicz An automated rigging system for facial animation
奥屋武志 Real-Time Rendering Method for Reproducing the Features of Cel Animations