JPH07509081A - メモリを利用した計算機図形処理の方法と装置 - Google Patents

メモリを利用した計算機図形処理の方法と装置

Info

Publication number
JPH07509081A
JPH07509081A JP5512574A JP51257493A JPH07509081A JP H07509081 A JPH07509081 A JP H07509081A JP 5512574 A JP5512574 A JP 5512574A JP 51257493 A JP51257493 A JP 51257493A JP H07509081 A JPH07509081 A JP H07509081A
Authority
JP
Japan
Prior art keywords
sample
subject
diagram
value
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5512574A
Other languages
English (en)
Inventor
ポッギオ,トマソ エイ.
ブルネリ,ロベルト
Original Assignee
マサチューセッツ インスチチュート オブ テクノロジー
イスチチュート トレンチノ デイ カルチュラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マサチューセッツ インスチチュート オブ テクノロジー, イスチチュート トレンチノ デイ カルチュラ filed Critical マサチューセッツ インスチチュート オブ テクノロジー
Publication of JPH07509081A publication Critical patent/JPH07509081A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S345/00Computer graphics processing and selective visual display systems
    • Y10S345/949Animation processing method
    • Y10S345/95Sprite processing
    • Y10S345/951Key frame processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S345/00Computer graphics processing and selective visual display systems
    • Y10S345/949Animation processing method
    • Y10S345/953Geometric processing

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 コンピュータ技術は、図形アニメーションシステムからパターン認識システム( 例えばニューラルネットワーク)まで、各種の図形および像処理システムを発達 させた。このようなシス升ムで重要なことは、発生した(出力した)像および特 に像のシーケンスか正確なことである。
一般に、今日の図形アニメーションは次の3段階に基づいている。すなわち(i )対象の表面の三次元モデリング、(i i)動作の身体的なシミュレーション 、(i i i)計算された表面からの三次元像のレンダリングまたはコンピュ ータ表示(i llumination)である。一般に三次元モデリングは、 x、y、z軸の指定と表面の指定とを含む三次元記述に基づいている。得られる 三次元モデルは身体的なモデルと考えられる。そのために、予想される図は全て 計算可能である。モデルの全体または部分の回転などの動作と表示は、コンピュ ータ支援設計(CAD)システムなとによって行われる。図形アニメーションに 三次元モデリングおよび身体的なノミュレーンヨンを用いるこの方法は確かに基 本的に正しくまた本質的に強力であるか、現在のところ汎用性のある現実的な像 のソーケンスを得るにはまだ程遠い。
図形アニメーションに対象の三次元の身体的なモデルを用いる以前は、二次元像 が用いられた。対象の二次元像では一つの透視図だけか得られる、すなわち計算 できる。基本的に、対象の個々の姿勢を一連の二次元像で表すと、対象全体のま たは対象の部分の動作は、従って図形アニメーションは錯覚を与える。図形アニ メーションにこのような一連の二次元像を用いる方法は、一つの図から次の図へ と図の部分を描き/提供するのか厄介でありまた繰り返しが必要なことか多く、 非常に効率か悪い。コンピュータ技術の出現と共にコンピュータ支援により三次 元モデルを用いる方法か発達し、二次元像による図形アニメーションの方法の効 率の悪さを改善し除去した。
図形アニメーションを発生するコンピュータシステム以外に、三次元または二次 元の図/像、見えにくい像、および/または雑音の多い像のパターンを類別しま たは認識し、またはより一般的にパターンを写像するコンピュータシステムがあ る。このようなコンピュータシステムはニューラルネットワークと呼ばれること がある。一般にニューラルネットワークは、ある入力に対する目標出力を生成す るように予め定義される、すなわち訓練される。総称的に「訓練セット」と呼ば れる例示の写像の対(ある人力−目標出力)が、学習と呼ばれる予め定義する段 階中にニューラルネットワークに提示される。学習中に、ニューラルネットワー クの内部パラメータは任意のその後の所定の入力に対して所望の写像を行うそれ ぞれの値に収束する。その後は、ニューラルネットワークは主体の入カバターン に作用して、学習した写像に従って出カバターンを出す。
発明の概要 この発明は、二次元の図に基づいて三次元の図形とアニメーションを発生するコ ンピュータの方法と装置と、従来の三次元の身体的なモデルに代わる新規な近似 方法を提供する。一般にこの発明の方法は、人なとの対象のいくつかの図を用い て、パラメータの集合の制御の下に中間図を発生する。詳しくいうと、パラメー タは作業軸に沿う点であって、図は作業軸に沿う異なる点に対応する。作業軸は 、主体を記述する任意の幾何学的または図形的態様でよい。そのために、パラメ ータは例えば縦の作業軸の周りの回転角、直交する作業軸の周りの傾斜角、対象 の三次元位置(または方向)、人の顔の表情などを定義する。
この方法の段階は次のように要約できる。
(1) 主体の二次元図を提供し、 (2) 各図に対し、主体の幾何学的および/または図形的機能(例えば方向/ 姿勢や表情)に従ってパラメータを設定し、パラメータの集合に制御点の値を割 り当て、 (3) −膜化/内挿により、パラメータの所望の値の中間図を発生する。
パラメータ設定段階て用いる図の集合は、対象の実際の高解像度の像であること が望ましい。
望ましい実施態様において、パラメータの集合に制御点の値を割り当てる段階は 、ニューラルネットワークが例から学習することである。所定の各図は学習セッ トとして働き、各パラメータの値に、すなわち作業軸に沿う点(例えは人の姿勢 や表↑5)に関連する。ここに用いる学習法はいわゆる超基底関数(HBF)法 である。HBFの特殊な場合はいわゆる動径(radial)基底関数であって 、訓練セントの点(すなわち制御点)上に中心かある、所定の数の動径関数を重 ね合わせて未知の多変量関数を近似するものである。
この発明の一態様ては、計算機図形処理アニメーションに用いる装置は次のもの を備える。すなわち、a)主体のサンプル図を提供する情報源、b)情報源に結 合する前処理部、C)前処理部に結合する像プロセッサ、d)像プロセッサに結 合する表示手段である。情報源は主体のサンプル図を提供するもので、各サンプ ル図は一つまたは複数の作業軸に沿う異なるサンプル位置にある対象を提供する 。各作業軸は複数の点て形成され、各点は作業軸に沿う主体の異なる位置を定義 する異なるパラメータの値を持つ。サンプル位置と中間位置のシーケンスで、あ る動作を行う主体のアニメーションを提供する。
前処理部は情報源に結合してサンプル図を受け、各サンプル区内の主体の制御点 の集合内の制御点の値(すなわち位置)を決定する。各サンプル図について、n ir処理部は制御点の値と、そのサンプル区内の主体のサンプル位置を表すパラ メータの値(すなわち作業軸に沿う点)との関係を確立する。
像プロセッサは前処理部に結合し、制御点の値と主体のサンプル位置のパラメー タの値との間の確立された関係によって支援される。詳しくいうと、像プロセッ サは主体のサンプル位置の制御点の値を、作業軸に沿う所望の中間位置(点)の 制御点の値に写像して、主体の中間図を形成する。像プロセッサは、サンプル図 と形成された中間図から像シーケンスを形成する。像シーケンスは、主体を含む 種類の中の任意の対象のアニメーションの原型を形成する。
表示手段は像ブロセッザに結合して、像シーケンスを局所でまたは遠方で表示し て、ある動作を行う主体の図形アニメーションを提供する。
図面の簡単な説明 この発明の上述の目的や特徴や利点は、図面に示す望ましい実施態様の以下のよ り詳細な説明から明かになる。図面中の同じ参照符号は、異なる図を通して同じ 部分を指す。図面の拡大縮小は必ずしも一定の比率ではなく、この発明の原理を 示すことに重点か置かれている。
第1a図は、この発明の計算機図形処理装置および方法を支援するニューラルネ ットワークの訓練セットに用いられる主体の異なる図を示す略図である。
第1b図は、第1a図の最初のサンプル図に対して発生した中間図を示す略図で ある。
第4C図は、線充填(line filli口g)法またはグレースケーリング (gray scaling)法による充填のための、対応する多角形領域を持 つ中間図を示す略図である。
第4d図は、縦および直交の作業軸に沿う主体の図を示す略図である。
第2図は、この発明の装置における五つのサンプル(訓練)図に基づく、コンピ ュータで発生した図形アニメーションの像シーケンスを示す。
第3図は、第2図のアニメーションのために学習した動作(像シーケンス)を用 いた、第2図と共通の主体の種類からの新しい主体の図形アニメーションを示す 。
第4a図は、この発明の計算機図形処理装置のブロック図である。
第4b図は、第4a図の装置の像部処理および処理サブシステムの流れ図である 。
第5図は、第4a図および第4b図に示すこの発明の計算機図形処理装置に用い るニューラルネットワークを示す略図である。
望ましい実施態様の詳細な説明 この発明は、図形アニメーションの記憶を利用した装置と方法を提供する。概念 的には、第」a図および第4b図に示すように、この発明は対象の限られた数の 最初の例すなわちサンプル図]3を用いる。各サンプル図13は、作業軸に沿う 異なる点(または複数の作業軸に沿う異なる集合の点)で得た主体の像である。
各サンプル図13において、パラメータの値(またはパラメータの値の集合)は 作業軸に沿う点を表す。以下に詳細に説明するように、サンプル図13は作業軸 に沿う点て形成される。第1a図では、各サンプル図13は時間の単一軸に沿う 異なる時刻tての対象を示し、ある表示するパラメータの値(すなわち対応する tの値)を持つ。
更に対象の各サンプル図13について、特徴的な機能や身体の接続などの、図の 平面内の二次元の制御点15の集合が識別さ札定義される。これには、各サンプ ル図13内の各制御点15の位置の値を確立することが含まれる。
またこの発明では、対象の所定のサンプル図13のパラメータの値と位置の値( 制御点15の)の間で、入力−出力の写像が確立される。この写像により、この 発明は二つの最初のサンプル図13の間の所望の中間図17(第1b図)と、更 に新たに発生した中間図17および/または最初のサンプル図13の間の中間図 を発生することができる。すなわちこの発明は、作業軸に沿う主体の中間位置の 所望のパラメータの値に対する制御点15の位置の値を発生して、中間図17を 形成することができる。このように中間図17を発生する、すなわち1間の図を 作る」ためには、制御点15の値を、サンプル図13の最初に定義されたlくラ メータの値に関連する制御点の値から中間図17の所望のパラメータの値の制御 点の値に内挿する。
異なる制御点15の相対的深さを与えるため、Z緩衝法、線充填、またはテクス チャ(texture)写像を用いる。詳しくいうと、決定された(計算された )位置の値にある制御点15は図から図に対応する多角形19(第1c図)を形 成し、通常の方法によって線充填またはグレースケール充填を行うことができる 。その結果、対象の明示的な三次元の身体的モデルを用いずに、対象の一連の図 (すなわち像)とそのアニメーション(適当な表現すなわち表示を用いて)が得 られる。
すてに述べたように、ノぐラメータの値は作業軸に沿う点てあり、図は作業軸に 沿う異なる集合の点から爵だものとして決定される。作業軸は、対象または主体 を記述する任意の幾何学的または図形的態様であってよい。例えば一つの作業軸 は、対象をその周りに回転する縦軸でよい。縦軸に沿う異なる点は回転角θで指 定される。例えば頭部の所定の像は、(a)θ=0°で正面の、(b)θ=45 °でやや回転した、(C)θ=90°て横向きの、図である。
もう一つの作業軸は、例えば対象をその周りに傾斜する直交(例えば水平)軸で ある。この軸に沿う異なる点は傾斜角φて指定される。例えば、頭部の像は(i )頭部か前にも後ろにも傾斜していないφ=0°、(i i)頭部を垂れたよう に頭部が前に傾斜しているφ=45° (i i i)頭部か後ろに傾斜してい るφ=−45°、の図である。
対象の図形的態様を定義する作業軸の例は表情の軸である。例えば、前に説明し た例示的な頭部の像の顔の表情が、笑顔からまじめな顔へ、更にしかめ面まで変 わるとする。この場合の作業軸は3点で形成する顔の表情軸で、1点はノくラメ ータの値がz=1で笑顔を表し、1点はパラメータの値がz=2でまじめな顔を 表し、1点はパラメータの値がz=3でしかめ面を表す。
また別の作業軸は、第1a図と第1b図の例に見るような時間であってよい。
この軸の点は異なる時刻を表し、従ってこれらの点のパラメータの値は各時刻で の対象の位置を示す。
次に対象の図を、以下のように作業軸(すなわち単一の作業軸または全部の図の 作業軸の組み合わせ)の集合に沿ってとる。単一の時間軸に沿ってられた動く対 象では、各図は時刻t=nにおける異なる位置(時間軸に沿う点)にある動く対 象を捕らえる。nは図に対応するパラメータの値である。
縦軸の周りに回転しまた直交(水平)軸の周りに傾斜する三次元対象では、各図 はθとφ(回転角と上からの傾斜角)で定義される異なる位置にある対象を捕ら える。すなわち、各図は縦の作業軸と水平の作業軸に沿う各点を表すパラメータ の値の異なる対(θ、φ)を持つ。第1d図は、縦および水平の作業軸の周りに それぞれ回転および傾斜する対象12の三つの図を示す。第1の図14は、縦お よび水平の作業軸に沿うそれぞれθ=90°とφ=45°の点で得た動く対象1 2を示す。すなわち対象12は縦の作業軸の周りに90°回転し、水平の作業軸 の周りに45°傾斜している。第2の図16は、(0°、0°)すなわち傾斜も 回転もない点で得た動く対象12を示す。第3の図18は、(0°、−45°) すなわち対象か後ろに傾斜した点で得た動く対象12を示す。
頭部が回転し傾斜しまた顔の表情が変化している像では、各図は上に説明したよ うにθ、φ、Zで定義される異なる位置にある頭部を捕らえる。すなわち正面を 向き、傾斜せず、まじめな表情の頭部の図は、3点の組すなわち三つのパラメー タの値(0°、O” 、2)で定義される。横を向き、前に45°傾斜し、しか め面の頭部の図は、三つのパラメータの値(90°、45°、3)で定義される 。
以下同様である。
この発明の方法と装置か記憶を利用すると呼ばれる理由:i、従来の方法のよう な各時刻に表現される明示的な三次元モデルではなくて、二次元図の集合をテク スチャ写像に用いるからである。強調すべきことは、制御点15の集合(よ三次 元の線て囲った立体モデルに対応するのではなく、各制御点は像(図)平面内の 二次元の点であることである。更に、最初のサンプル図13は、制御ats力( ))ラメータの値に関連して定義されているために二次元(一つの透視図)以上 のものであるが、全ての透視図が計算できるような三次元モデル以下のものであ る。このため、この発明は三次元の図形とアニメーションに 2 l/2 次元 の記憶を利用する方法を提供する。また、この発明は多次元の入力空間(第1d 図のように)において「間の図を作る」方法てあって、第1b図のよう(=−次 元の入力空間だけてはない。
実際には、この発明は二つの写像を用いる。第1の写像は、対象の例示点(すな オ)ちサンプル図13の制御点+5)の集合から所望の中間図17の集合への写 像であり、第2の写像は発生した中間図17から対象の像シーケンスへの写像で ある。制御点の構成(パラメータの値に関連する)と所望の中間図17との対応 は、上に述べたように最初のサンプル図から確立される。中間図17の計算に入 るものは対象の全ての透視投影の空間なので、サンプル図13から対象の任意の 所望の中間図17を発生する(すなわち内挿により計算する)ことかできる。第 2の写像は、異なる制御点に相対的な深さを与えるテクスチャ写像に関連する。
更に、対象か一種類の対象群に属する場合、第」および第2の写像をその種類の 他の要素(対象)の間で共有することかできる。これらの写像を共存するため、 所望の対象の制御点からその種類の原型の制御点への写像およびその通力・用0 られる。
第2図と第3図は、この発明の上述の実施の例を示す。これらの図面の図/像の シーケンスは右から左へ、また上から下へ見る。第2図において、五つのサンプ ル図21a、b、c、d、eか与えられ、主体(「ジョン」)がある動作(歩行 )をしていることを示す。各図において、例えば各前腕、もも、むこうずね、足 の位置は、図の平面内の座標システムに従って決定される。各前腕、もも、むこ うずね、足の座標は、(C6)εR2て示す制御点の値の集合を形成する。容具 なる動作α(例えは跳躍、歩行、駆は足なと)において、第1の写像鳩は制御点 の値CIを特定の各パラメータの値(すなわち作業軸に沿う点)に関連づける。
制御点の絶対座標は、制御点の値の各集合(C6)から通常の方法と手段によっ て重心座標に変換される。得られた重心座標の制御点は、制御点の値の新しい集 合(C,”lを形成する。サンプル図21から所望の中間図へ第1の写像を行う 際に用いるのは制御点の値のこの新しい集合である。重心座標を用いる理由は、 この写像は主体に固有なものであるが、主体の動作は周囲に対して相対的だから である。
詳しくいうと、主体Sは所定の数の多角形要素U1で構成され、各要素U1は制 御点(C,″)の集合の部分集合で定義される。例えば三角形要素U、は第4a 図の主体内の制御点1581 b+ gで形成され、他の要素U、は第2図の主 体S内の方形、長円などである。従って、主体Sは数学的に次のように定義され る。
S= (U、1 例えば、時間の作業軸に沿う特定の動作写像M、cを用いた主体Sのアニメーシ ョンは、 S (t)= +U、(t)1 て表される時間依存関係を導入することになる。各要素U+ D)は、所定の動 作の写像M1を用いて計算される。すなわち、要素U、の各車−の制御点の値C 2は、関数MLを用いて写像して変換されたU、になる。主体Sの各U、(およ びその制御点の値C,)について同じことを行うと中間図が得られる。同様にし て所望の写像M工の関数に従って主体Sの各要素U1の前述の変換を行うと、更 に中間図を発生する。主体の図形アニメーションの像シーケンスをサンプル図2 1から発生するのは、これらの中間図からである。
サンプル図21から中間図を発生した後、テクスチャ写像を用いて中間図から像 を作る。詳しくいうとサンプル図21の主体「ジョン」の図形アニメーションの 像シーケンスを作る。テクスチャ写像は、従来の既知の標準的な方法によって行 われる。詳しくいうと、テクスチャ写像はサンプル図の制御点の間で定義された 各多角形のグレー値を、発生した中間回内の対応する多角形に写像する。
望ましい実施態様では、この発明の装置は次の関数を実現する。
G (x)は動径ガウス関数(例えば、T、ボジオ(Poggio)およびF、 ジロシ(Girosi)による、「近似と学習のW4J、IEEE議事録、Vo l、78、No。
9.1990年9月、て定義された動径グリーン関数)であり、従ってG (x )は所望のXと予め定められたt との距離の二乗のガウス分布である。
Xは制御点の位置の値か必要な、作業軸に沿う位置または点(パラメータの値) である。
CJは、サンプル図21の既知の/所定の制御点の値から「学習された」係数( 重み)である。一般にこれらの係数はサンプル図の数N(n≦N)よりかなり少 ない。
tよはガウス分布のいわゆる「中心」であり、所定のサンプル図21から得られ る既知のパラメータの値を持つ制御点の別個の集合上にある。
p (x)は選択された滑らかさの仮定に依存する多項式である。多くの場合、 定数と線形項までを含むのか便利である。
更に関数Gは、多重二次式 %式% または「薄いプレートスプラインJ G(r)=r”ln r 、または動径て あってもなくてよいか他の特殊な関数であってよい。ノルムは重み付きノルムで ただし、Wは未知の正方行列であり、肩文字Tは転置を表す。簡単な対角Wの場 合には、対角要素W、は各入力座標に特定の重みを割り当て、事実上測度の単位 と各機能の重要性を決定する(行列Wは、入力の機能が異なる形式であってその 相対的重要性か未知の場合に特に重要である)。
上の式から、第2図の例における時刻tての(より一般的には、作業軸に沿う所 望の点/パラメータの値での)中間回内の制御点の位置の値か近似され(内挿さ れ)、サンプル図の要素U1は変換された要素U+ (Dに写像される。その結 果、サンプル図21aと21bの間の第1の像シーケンス部23(第2図)の中 間図は、tの第1の範囲において発生する。サンプル図21bと21cの間の第 2の像シーケンス部25の中間図は、tのすぐ次の範囲において発生する。サン プル図21cと21dの間の第3の像シーケンス部27の中間図は、tの更に次 の範囲において発生する。サンプル図21dと21eの間の第4の像シーケンス 部29の中間図は、tの最後の範囲において発生する。
ジョンの歩行の滑らかな像シーケンスは、第2図に示すように効果的に発生する 。上の説明から、ジョンの他の動作の滑らかな像シーケンスが同様に発生するこ とが理解できる。同様にして、異なる姿勢(縦軸周りの回転および/または直交 軸周りの傾斜なと)および/または異なる顔の表情の滑らかな像シーケンスが発 生することか理解できる。
上述および特に式lは、第5図に示す網51による望ましい実施態様によって実 現される。ニューラルネットワークより特定していえば超基底関数網51は、入 力ノード53の層と、これと結合する、総計出力ノード57に活性化信号を送る 作業ノード55とて形成される。入力ノード53は、入カバターンを表す信号を 伝送する。これらの信号は、制御点C1と、入カバターン内の主体の図を定義す る対応するパラメータの値と、所望の動作αに基づく。各入力ノード53は各作 業ノート55に結合する。すなわち、入力ノード53の層は作業ノード55に完 全に接続して入カバターンを作業ノード層に分配する、と言われる。
作業ノード55は(上に述へた)式Iに従って、最初は学習モード、次は所望の パターンを写像する操作モード、という二つの異なるモードて活性化する。学習 モート中は、対象とする主体のサンプル図(例えば第2図の「ジョン」の五つの サンプル図21)は入カバターンの訓練セットの役目をする。より正確には、サ ンプル図の制御点と所定の動作αにおける作業軸に沿う対応するパラメータの値 は、作業ノード55への入力−出力写像Mよを提供する。内部重みと網係数(c 、、Wl またはW、tよ)はサンプル図の各人力−出力写像について調整され 、その結果各位に収宋する。望ましい実施態様では、これはサンプル図の誤差汎 関数を最小にする係数7重みC7、Wl、t、の各種の集合の最適値を見いだす ことを含む。誤差汎関数は次のように定義される。
誤差汎関数を最小にする通常の/標準の方法は最急勾配法で、導関数の計算が必 要である。この方法では、H[f’ ]を最小にするc、L、t、L、Wの値は 、次の動的システムの安定した固定点の座標と見なされる。
たたし、ωはシステムパラメータである。
導関数の計算を必要としないより簡単な方法は、係数値内で誤差を減らすような 変化を無作意に探すことである。言い換えると、係数7重みc、 、t、 、W を無作為に変化して、H[f” ]か減少すれはこれを受け入れる。H[f’  ]を増加させるような変化も受け入れることかある。
内部重みと網係数かこれらの値をとる(すなわち割り付けられる)と、ニューラ ルネットワーク51は動作α(上にMユて示した)の写像を学習したと言われる 。動作αは、時間の単一作業軸に沿うパラメータの値を持つ歩行、駆は足、跳躍 などから成る集合の要素てあってよい。動作αは、二つの作業軸に沿うパラメー タの値の対を持つ姿勢(回転角および傾斜角による方向付け)の集合内の要素で あってよい。動作αは、三つの作業軸(縦、水平、表情の軸)に沿う三重のパラ メータの値を持つ姿勢と表情の集合内の要素であってよい。以下、前に説明し、 た作業軸に従って同様である。同じサンプル図を持つ所定の各動作αには、同じ 学習手順が用いられる。このようにして学習モードによって、ニューラルネット ワーク51は該当する作業軸に沿うパラメータの値の集合を、対象とする主体の 二次元図に写像するように訓練される。
学習モートが終わると、つまり内部重みと網係数W、 cよ、ttが確立すると 、作業ノート55は操作モードに活性化される。本質的に、学習後の上の式Iの 基底関数の中心tよは多次元入力空間内の点であり、従?て原型と同じである。
入力ノード53からの人力信号(作業軸に沿う主体の所望の位置または図のパラ メータの値の座標)に応答して、各作業ノード55は類似度の測度である中心t よから入力まての重み付き距離を計算し、これに動径関数G(式l)を適用する 。
ガウスGの場合は、作業ノートは入力カ沖心tえと正確に合致するときに最大に 活性化される。従って作業ノード55は、学習した写像Mtに従って活性化され る。
作業ノード55は、発生した活性化信号Gを線59に沿って総計出力ノード57 に伝送する。各伝送線59は伝送される各活性化信号に、網の学習モード中に決 定された重み値Cを掛ける。従って出力ノード57は各作業ノード55から信号 cGを受け、これは網51内の全ての基底関数の活性化の線形の重ね合わせにな る。出力ノート57は、入力(式1のp (x)の線形項で、第5図に点線で示 す)からと定数入力ノード49(定数項)からの直接の重み付き接続をcG倍信 号加える。全体て式lに従う出力を出す。
この出力は、所定の入力の(所望の)パラメータの値に対応する写像と解釈され る。すなわち出力は中間図の制御点の座標(位置の値)を定義し、最初のサンプ ル図の像シーケンスを最終的に定義する。
デルタ関数を近似するという極端な基底関数の場合は、第5図のシステム51は ルックアップテーブルと等価になることに注意されたい。学習中は、重みCは網 の予測と各サンプル図との誤差の測度を最小にすることによって得られる。同時 に、動径関数の中心t1 とノルムの重みも、学習中に更新される。中心t1を 動かすことは対応する原型を修正することと等価であり、タスクに依存するクラ スタ化に対応する。ノルムの最適な重みWを見いだずことは、入力座標の適切な 変換、例えば基準化と等価であり、タスクに依存する次元の減少に対応する。
ソフトウェア/ハードウェア支援 第5図のパターン写像システム51は、一般に第4a図と第4b図に示すコンピ ュータシステム61で実施される。第4a図において、コンピュータシステム6 1のディジタルプロセッサ63は内部記憶、I10装置(例えばキーボード、マ ウスなと)、および/または記憶装置(例えは据え置き型のメモリファイル、デ ィスク記憶なと)から入力69を受ける。人力がサンプル図または入カバターン の場合は、ディジタルプロセッサ63は像面処理部65を用いて、異なる入カバ ターン69全体の制御点CIと各制御点に対応する値の集合を決定する。また前 処理部65は各人カバターンについて、入カバターン69内の主体の所望の動作 αの対応するパラメータの値を決定する。後で明らかになるように、像面処理部 65はハードウェア、ソフトウェア、またはその組み合わせて実現される。その −例は、第5図に示すような学習モードのニューラルネットワーク51である。
より一般的なソフトウェアの例は、第4b図の流れ図で概説する。
第4b図の左側の部分において、入力69かサンプル図または入カバターン69 であれば、像ブリプロセッサ65は学習モードを実行する。学習モードの最初に 与えられるもの(利用lまたは他の情報源から)は作業軸の定義である。第4b 図の81で、像ブリプロセッサ65は作業軸に沿うパラメータの値(点)を確立 し、各入カバターン(サンプル図)69に異なるパラメータの値(単一、対、三 重なと)を割り当てる。次に83で、像ブリプロセッサ65は各入カバターン6 9に適用するための制御点CIの集合を抽出し、各人カバターンに対して制御点 の値を決定する。
71で、像ブリプロセッサ65は制御点の値と作業軸のパラメータの値との関係 すなわち写像M を確立する。これは実際は、像ブリプロセッサ65か式4゜5 .6(上に説明した)をJ1算して、式I (第5図のwi51を支援する式) の係数を決定することである。71から係数C4、tよ、Wか得られ、第5図で 説明した式lを実現する超基底関数網51の操作モードを定義する。操作モード を支援する関数(式1)を別の形で実現するのは、第4b図の右側の部分に流れ 図の形で概要を示しまた以下に説明する像プロセッサ67である。その他の実現 方法1 てもよいと考えられる。
入力69か作業軸に沿う入力パラメータの値における、利用者か所望する図を表 す場合は、入力69は操作モードモジュール77に送られる。操作モードモジュ ール77では、所望の動作α(作業軸に沿う)中の主体の各所望の位@(入力パ ラメータの値)に対して、像プロセッサ67は(i)入力パラメータの値に写1  像M1を適用し、(i i)対応する制御点の値を決定する。これは第4b図 の73に示すように、内挿(式1を用いて)により行われる。像プロセッサ67 は制御点C5の得られた値を用いて多角形要素U、を定義し、作業軸に沿う所望 の位置に主体Sを形成する。74て、像プロセッサ67は線充填またはテクスチ ャ写像を適用して、得られた主体Sの中間像を形成する。次に75で、像プロセ ッサi 67は主体Sの所望の動作αで発生した他の図(すなわち主体の所望の 位rl)ど共(二形成した図のシーケンスを作る。
また第4a図および第4b図のコンピュータシステム61は、必要があれば、入 力パラメータの値(作業軸に沿う主体の位置)には対応するが訓練に用いた例示 の図には全く対応しない、孤立した図を発生することもできる。またコンピュー タシステム61は、以下に説明するように、所望の動作の図のシーケンスを発生 した主体と同じ種類内の、別の主体の図を発生ずることらできる。
人力69か、像シーケンスかすてに形成された主体の種類に属するある主体の図 であれば、現在の入力69の主体の制御点からその種類の原型の制御点への写像 は73て次のように行われる。主体ジョンか対象の種類の要素である場合の第2 図に戻って、発生したジョンの像シーケンスはその種類の他の対象を同様に動画 化するのに用いてよい。同じ種類の他の対象を動画化するため、この発明はこの 種類の原型の確立された所望の動作を変換する。例えば、別の人例えばジエーン の歩行の像を発生することか望ましく、また第2図で発生したジョンの歩行の図 かジョンとジェーンに共通な種類の原型であるとする。もちろん第3図のジ工− ンのI%初のサンプル図35a、b、c、d、eに対して第2図の手順を繰り返 してよいか、ここに手っとり早い方法かある。すなわちこの発明は、原型のジョ ンについて発生した像シーケンスを用いて、最小限の追加情報で同じ種類の他の 対象(すなわちジェーン)を動画化する。
ジエーンを利用可能な種類の原型(ジョン)に写像する最も簡単な方法の一つは 平行変形である。第1段階は、原型と新しい主体の参照枠の制御点をそれらの重 心座標に変換することである。この操作により、学習した動作に固有と考えらt する重も・の運動を、その特定の場合の写像に依存する重心の周りの動作から分 離することかできる。この場合、制御点の集合は二次元空間内に埋め込まれる。
平行変形は、次のように定義される。
5e(t) =R,(−1) + [S、 (0) −R,(0) ] 式3R は(この例では)ジョンの参照特性[(である。
下付きの字Bは、制御点か重心座標で考えられていることを意味する。
Rは原型てあり、Sは新しい主体である。
1:体は20次次元間(nは制御11点の数)内に理め込まれると考える。tか ら、時刻tにおけるジゴ、−ンの像かi%られ、変位 [S、(0)−R1+  (0)] によ−・て時刻tにおけるン1ンの像を変換することにより、時刻t における制御点の集合を先ず得る。これにより、第2図の原撃ジ3ンの各図にお ける位置(すなわぢ姿勢)にあるンエーンの像を発生する。従って第3図のジェ ーンの図と第2図の原ヤシ3ンの図との間にl対lの対応すなわち写像か存在す る。第3図に示す、、;エージの歩行の像シーケンス、つまりアニメーションは 、ジェーンのただ一つのサンプル図(例えばR?JJの図37)から得られる。
ジェーンの池の動作の像シーケン又は、種類の原Vシコンについて定義された同 じ動作の像シーケンスから同様に置換/写像される。
このため、平行変形による置換を行うと、共通の姿勢に対する原Yの主体のバ・ ラメータの値の制御への値を新しい主体の制i11〜.に写像する。従って、新 しい主体の所定の最初の[337(第3図)は、必ずしも種類の原型の像シーケ ンスを確立するのに用いたサンプル図21の種類の原型と同し姿勢にある新しい 主体の図てはないか、この発明は同し動作をする種類の原型の像シーケンスから 所望の動作αをする新しい主体の像シーケンスを発生する。新しい主体の制御点 を最初に確立することによって、新しい主体の一つの所定の最初の図37(第3 図)だけかこの写像に影響する。
この型の写像か平行変形と呼はれる理由は次の通りである。2a次元のベクトル を見るど、ジエーンの図は、時刻tの原型の対応する枠(図)に、を二〇のとき の原型と1=00どきのジェーンの所定の最初の図との差を加えることにより得 られることか分かる。このため、原型とノJ−ンの変形(すなわち時刻tにおけ る主体とその特性図との差)は構造的に平行である。
従って、現在の入力69の主体の一連の作業図すなわち中間図は、種類の原型の 像シーケンスのサンプル図ど中間図から発生する。
いずれにしても、像プロセッサ67の第4b図の出力は、所望の動作αをしてい る主体Sの像シーケンスである。第4a図に戻って、ディジタルプロセッサ63 はこのノーケンスを表示装置78によって表示し、主体Sの図形アニメーション を提供する。または、ディジタルプロセッサ63は後で表示できるように記憶装 置/領域に像シーケンスを記憶する。像ソーケンスを出力するその他のI10装 置には、第4a図の81で示すプリンタ、ファクシミリ装置、遠方のコンビコー タワークステーションへの通信線なとかnまれるか、制限はない。
像面処理部65および像プロセッサ67のラフ1−ウェアの一実施態様は[ンエ ーカ(Shaker)Jと呼ばれるCプログラムで、イタリア国l・レントの科 学技術研究所(tstituto per la Ricerca 5cien tifica e Technologica)と、米国マサチューセソッ州キ ャンプリッツのマサチューセソツエ科大学人工知能研究所(Artificia l Intelligence Laboratory)のラフ1−ウェアライ ブラリに見られる。
この発明の語算機図形処理アニメーション装置と方法を用いるコンビコータシス テム61の上述の説明から分かるように、この発明は漫画の人物、ビデオ会議、 その他の像処理応用に適用できる。漫画の人物のアニメーションの場合は、漫画 の人物の任意の所望の図は漫画の人物の使用117能な図の大きな集合から成る 「J11練セフ1−Jから発生してよい。
ビデオ会議の応用、またはより一般に遠距離会議は、二台以上のコンピュータシ ステムやワークステーション61を用いて実現さLシステムを結合して像シーケ ンスを発生する通信線81を通して、パラメータの値や制御点の値を送信する。
各ワークステーションの各表示装置78は発生した像シーケンスを表示する。
テキスI・ファイルまたは音声信号を伝送することにより、送受信システム6I の利用者の間で通信することができる。この発明は作業軸に沿うパラメータの値 と限られた数の制御点を用いて像を動画化することができるので、伝送する必要 のある情報量が非常に少なくなり、従ってこのような遠距離会議が可能になる。
その池の応用は、この技術に精通した人の範囲内にあるものと理解される。
同等物 この発明について望ましい実施態様に関連して詳細に図示し説明したか、この技 術に精通した人は、特許請求の範囲に規定された発明の精神と範囲から逸脱する ことなく、形式や詳細について各種の変更が可能なことが理解できる。
例えは開示した望ましい実施態様で用いた超基底関数の代わりに、他の多変量近 似および内挿法を用いてよい。これらの方法は超基底関数の特殊な場合(例えば 、−収出されたスプライン、テンソル積スプライン、テンソル積線形内挿)か、 または超基底関数と類似(例えば、多層バーセブトロンやカーネル法)である。
0 右 i U) NX e 補正書の写しく翻訳文)提出書く特許日184条ノ8)平成 6 年 7 月  121 図形アニメーションにこのような一連の二次元像を用いる方法は、一つの図から 次の図へと図の部分を描き/提供するのが厄介でありまた繰り返しが必要なこと が多く、非常に効率が悪い。コンピュータ技術の出現と共にコンピュータ支援に より三次元モデルを用いる方法が発達し、二次元による像の図形アニメーション の方法の効率の悪さを改善し除去した。
コンピュータで処理したアニメーションを作る方法は、国際特許公報No。
Wo 89109458に述べられている。ここで、アニメーションの人物の図 形的な動作シーケンスは、行為者の動作をまねて生成される。行為者の関節は、 アニメーションの人物の関節と関連して人物のセグメントを描く。セグメントは 、共通の関節で互いに動かすことかできる。人物の各セグメントに対してメモリ の中に多数の重要な図形があって、行為者のセグメントの各種の方向に適合する 。
行為者か動くにつれて、メモリから重要な図形が検索され、人物の各セグメント を形成する。セグメントを共通の関節で接合して、動画化した人物を作る。
コンピュータアニメーションについては、T、アグイ(Agui)他による「不 規則る。この論文は、三角法近似の使用とフーリエ展開のコンピュータアニメー ションへの応用について述べている。この方法は動作を関数で表すことができ、 人の歩く動作のアニメーションを近似する。
図形アニメーションを発生するコンピュータシステム以外に、三次元または二次 元の図/像、見えにくい像、および/または雑音の多い像のパターンを類別しま たは認識し、またはより一般的にパターンを写像するコンピュータシステムがあ る。このようなコンピュータシステムはニューラルネットワークと呼ばれること がある。一般にニューラルネットワークは、ある入力に対する目標出力を生成す るように予め定義される、すなわち訓練される。総称的に「訓練セット」と呼ば れる例示の写像の対(ある入力−目標出力)が、学習と呼ばれる予め定義する段 階中にニューラルネットワークに提示される。学習中に、ニューラルネットワー クの内部パラメータは任意のその後の所定の入力に対して所望の写像を行うそれ ぞれの値に収束する。その後は、ニューラルネットワークは主体の入カバターン に作用して、学習した写像に従って出カバターンを出す。
発明の概要 この発明は、二次元の図に基づいて三次元の図形とアニメーションを発生するコ ンピュータの方法と装置と、従来の三次元の身体的なモデルに代わる新規な近似 方法を特徴する 請求の範囲 1、 ある動作をしている主体の動画化した像シーケンスを表示するディスプレ イ(78)を備える、前記主体の計算機図形処理アニメーションを発生する装置 であって、その改善は、 主体のサンプル図(13)を提供し、各サンプル図(13)は少なくとも一つの 作業軸に沿う異なるサンプル位置にある前記主体を提供し、各作業軸は複数のパ ラメータの値で形成され、各パラメータの値は前記作業軸に沿う前記主体の異な る位置を定義するような情報源(69)と、前記tn報源(69)から前記サン プル図(13)を受けるよう結合し、(i)各サンプル図(13)内の前記主体 の制御点(15)の集合と(i i)各サンプル図(I3)内の前記制御点(1 5)の平面座標とを決定し、各サンプル図(I3)について前記制御点(15) の座標と、そのサンプル図(13)内の前記主体の前記サンプル位置を表す前記 少なくとも一つの作業軸の前記パラメータの値と関連付ける前処理部(65)と 、 前記R処理部(65)に結合し、かつ前記主体の前記制御点(15)の座標と前 記サンプル位置のパラメータの値との関連に応答し、前記主体のサンプル位置の 前記制御点(15)の座標を、前記少なくとも一つの作業軸に沿う所望の中間位 置の制御点(15)の座標に写像して前記主体の中間図(17)を形成し、前記 サンプル図(!3)と形成された中間図(17)から、前記主体を含む種類内の 任意の主体のアニメーションの原型を定義する像シーケンスを形成する像プロセ ッサ(67)と、 を含む装置。
2、 前記像プロセッサ(67)は、ある動作をしている前記主体を動画化する ためのサンプル位置と中間位置のシーケンスに従って整列させた前記サンプル図 (13)と中間図(17)から像シーケンスを特徴する請求項】記載の装置。
3、 前記情報源(69)は前記種類の対象の少なくとも一つの例示の図(37 )を引き続き提供し、 前記像プロセッサ(67)は前記像シーケンスを形成する図(13,17)の制 御点(15)の座標を前記例示の図(37)の制御点に写像して、前記少なくと も一つの作業軸の各パラメータの値について前記対象の中間図の前記制御点の値 の座標を決定し、ある動作をしている前記主体を動画化するための各像シーケン スを特徴する請求項1記載の装置。
4、 前記ディスプレイ(78)は、前記像シーケンスを遠方で表示するための 前記像プロセッサ(67)の網に組み込まれた表示装置を備える、請求項1記載 の装置。
5 少なくとも一つの作業軸は、縦軸の周りの回転、直交軸の周りの傾斜、時間 軸に沿う時刻、各軸に沿う顔の表情の一つとして前記主体の位置を特徴する請求 項I記載の装置。
6、 前記少なくとも一つの作業軸は複数の作業軸である、請求項1記載の装置 。
7、コンピュータシステムにおいて、主体の計算機図形処理アニメーションを発 生し、ある動作をしている前記主体の動画化した像シーケンスを前記コンピュー タシステムのディスプレイ(78)に表示する方法であって、その改善は、主体 のサンプル図(13)を提供し、各サンプル図(13)は少なくとも一つの作業 軸に沿う異なるサンプル位置にある前記主体を提供し、各作業軸は複数のパラメ ータの値で形成され、各パラメータの値は前記作業軸に沿う前記主体の異なる位 置を定義し、前記サンプル位置と中間位置のシーケンスはある動作をしている前 記主体を動画化し、 各サンプルU;!J(13)内の前記主体の制御点(15)の集合を決定し、各 サンプル図(13)について(1)前記制御点(15)の平面座標の値を決定し 、(i i)前記制御点(15)の座標と、そのサンプル図(I3)内の前記主 体の前記サンプル位置を表す前記少なくとも一つの作業軸のパラメータの値との 関連を確立し、 前記主体のサンプル位置の前記制御点(!5)の座標を、前記少なくとも一つの 作業軸に沿う所望の中間位置の前記制御点(I5)の座標に写像して前記主体の 中間図(17)を形成し、 類内の任意の対象のアニメーションの原型を定義する像シーケンスを形成する、 段階を備える方法。
8、 前記主体のサンプル位置の制御点(15)の座標を所望の中間位置の制御 点(15)の座標に写像する段階は、前記サンプル位置のパラメータの値と前記 中間位置の所望のパラメータの値の間の前記制御点(15)の値を内挿すること を含む、請求項7記載の方法。
9 像シーケンスを形成する前記段階は、前記ある動作をしている前記主体を動 画化するための前記サンプルと中間の位置のシーケンスに従って、前記サンプル 図(13)と形成された中間図(17)を整列させることを含む、請求項7記載 の方法。
10、前記種類の対象の少なくとも一つの例示の図(37)を提供し、前記像ソ ーケンスを形成する図(13,17)の前記制御点(15)の座標を決定して前 記例示の図(37)の制御点に写像し、前記少なくとも一つの作業軸の各パラメ ータの値について前記対象の中間図の前記制御点の座標を決定し、前記ある動作 をしている前記対象を動画化するための各像シーケンスを発生する、段階を更に 含む、請求項7記載の方法。
+1. サンプル図(+3)を提供する前記段階は、前記主体を図の中で回転し てよい縦軸、前記主体を図の中て傾斜してよい直交軸、時間軸、または前記主体 の顔の表tffの範囲を示す軸の一つとして、少なくとも一つの作業軸を確立す ることを含む、請求項7記載の方法。
12 前記少なくとも一つの作業軸は複数の作業軸である、請求項7記載の方法 。
国際調査報告 11.T/lle el、/l’l、ll、1フロントページの 続き (72)発明者 ボッギオ、トマソ エイ。
アメリカ合衆国 02181 マサチューセッツ州つエレスリー、グリーンウッ ド ロード 21 (72)発明者 ブルネリ、ロベルト イタリア国アイ −38100トレンド。
ビア リカルド ザンドナイ、6

Claims (12)

    【特許請求の範囲】
  1. 1.計算機図形処理アニメーション装置であって、主体のサンプル図を提供し、 端サンプル図は少なくとも一つの作業軸に沿う異なるサンプル位置にある前記主 体を提供し、名作業軸は複数の点から形成され、各点は前記少なくとも一つの作 業軸に沿う前記主体の異なる位置を定義する異なるパラメータの値を持つような 情報源と、前記情報源から前記サンプル図を受けるよう結合し、(i)各サンプ ル図内の前記主体の制御点の集合と(ii)各サンプル図内の前記制御点の平面 座標の値とを決定し、各サンプル図について前記制御点の値と、そのサンプル図 内の前記主体の前記サンプル位置を表す少なくとも一つの作業軸のパラメータの 値との関係を確立する前処理部と、 前記前処理部に結合し、かつ前記主体の前記制御点の値と前記サンプル位置のパ ラメータの値との確立された関係に応答し、前記主体のサンプル位置の前記制御 点の値を前記少なくとも一つの作業軸に沿う所望の中間位置の制御点の値に写像 して前記主体の中間図を形成し、前記サンプル図と形成された中間図から、前記 主体を含む種類内の任意の主体のアニメーションの原型を定義する像シーケンス を形成する像プロセッサと、 前記像プロセッサに結合して像シーケンスを表示し、ある動作をしている前記主 体の図形アニメーションを提供する表示手段と、を備える装置。
  2. 2.前記像プロセッサは、ある動作をしている前記主体を動画化するためのサン プル位置と中間位置のシーケンスに従って整列させた前記サンプル図と中間図か ら像シーケンスを形成する、請求項1記載の装置。
  3. 3.前記情報源は前記種類の対象の少なくとも一つの例示の図を引き続き提供し 、 前記像プロセッサは前記像シーケンスを形成する図の制御点の値を前記例示の図 の制御点に写像して、前記少なくとも一つの作業軸の各パラメータの値について 前記対象の中間図の前記制御点の値を決定し、ある動作をしている前記主体を動 画化するために各像シーケンスを発生する、請求項1記載の装置。
  4. 4.前記表示手段は、前記像シーケンスを遠方で表示するための前記像プロセッ サの綱に組み込まれた表示装置を備える、請求項1記載の装置。
  5. 5.少なくとも一つの作業軸は、縦軸の周りの回転、直交軸の周りの傾斜、時間 軸に沿う時刻、各軸に沿う顔の表情の一つとして前記主体の位置を定義する、請 求項1記載の装置。
  6. 6.コンピュータシステムの図形処理アニメーションの方法であって、主体のサ ンプル図を提供し、各サンプル図は少なくとも一つの作業軸に沿う異なるサンプ ル位置にある前記主体を提供し、各作業軸は複数の点から形成され、各点は前記 少なくとも一つの作業軸に沿う前記主体の異なる位置を定義する異なるパラメー タの値であり、前記サンプル位置と中間位置のシーケンスはある動作をしている 前記主体を動画化し、 各サンプル図内の前記主体の制御点の集合を決定し、各サンプル図について(i )前記制御点の平面座標の値を決定し、(ii)前記制御点の値と、そのサンプ ル図内の前記主体の前記サンプル位置を表す前記少なくとも一つの作業軸のパラ メータの値との関係を確立し、前記主体のサンプル位置の前記制御点の値を、前 記少なくとも一つの作業軸に沿う所望の中間位置の前記制御点の値に写像して前 記主体の中間図を形成し、前記サンプル図と形成された中間図から、前記主体を 含む種類内の任意の対象のアニメーションの原型を定義する像シーケンスを形成 し、前記コンピュータシステムの表示手段により前記像シーケンスを表示して、 ある動作をしている前記主体の図形アニメーションを提供する、段階を備える方 法。
  7. 7.前記主体のサンプル位置の制御点の値を所望の中間位置の制御点の値に写像 する段階は、、前記サンプル位置のパラメータの値と前記中間位置の所望のパラ メータの値の間の前記制御点の値を内挿することを含む、請求項6記載の方法。
  8. 8.像シーケンスを形成する前記段階は、前記ある動作をしている前記主体を動 画化するための前記サンプルと中間の位置のシーケンスに従って前記サンプル図 と形成された中間図を整列させることを含む、請求項6記載の方法。
  9. 9.前記種類の対象の少なくとも一つの例示の図を提供し、前記像シーケンスを 形成する図の前記制御点の値を決定して前記例示の図の制御点に写像し、前記少 なくとも一つの作業軸の各パラメータの値について前記対象の中間図の前記制御 点の値を決定し、前記ある動作をしている前記対象を動画化するための各像シー ケンスを発生する、段階を更に含む、請求項6記載の方法。
  10. 10.サンプル図を提供する前記段階は、前記主体を図の中で回転してよい縦軸 、前記主体を図の中で傾斜してよい直交軸、時間軸、または前記主体の顔の表情 の範囲を示す軸の一つとして、少なくとも一つの作業軸を確立することを含む、 請求項6記載の方法。
  11. 11.計算機図形処理アニメーション装置であって、主体のサンプル図を提供し 、各サンプル図は複数の作業軸に沿う異なるサンプル位置にある前記主体を提供 し、各作業軸は複数の点から形成され、各点は前記作業軸に沿う前記主体の異な る位置を定義する異なるパラメータの値を持つような情報源と、 前記情報源から前記サンプル図を受けるよう結合し、(i)各サンプル図内の前 記主体の制御点の集合と(ii)各サンプル図内の前記制御点の平面座標の値と を決定し、各サンプル図について前記制御点の値と、そのサンプル図内の前記主 体の前記サンプル位置を表す前記作業軸のパラメータの値との関係を確立する前 処理部と、 前記前処理部に結合し、かつ前記主体の前記制御点の値と前記サンプル位置のパ ラメータの値との確立された関係に応答し、前記主体のサンプル位置の前記制御 点の値を前記作業軸に沿う所望の中間位置の制御点の値に写像して前記主体の中 間図を形成し、前記サンプル図と形成された中間図から前記主体を含む種類内の 任意の主体のアニメーションの原型を定義する像シーケンスを形成する像プロセ ッサと、 前記像プロセッサに結合して像シーケンスを表示し、ある動作をしている前記主 体の図形アニメーションを提供する表示手段と、を備える装置。
  12. 12.コンピュータシステムの図形処理アニメーション方法であって、主体のサ ンプル図を提供し、端サンプル図は複数の作業軸に沿う異なるサンプル位置にあ る前記主体を提供し、各作業軸は複数の点から形成され、各点は前記作業軸に沿 う前記主体の異なる位置を定義する異なるパラメータの値を持ち、前記サンプル 位置と中間位置のシーケンスはある動作をしている前記主体を動画化し、 各サンプル図内の前記主体の制御点の集合を決定し、各サンプル図について(i )前記制御点の値を決定し、(ii)前記制御点の値と、そのサンプル図内の前 記主体の前記サンプル位置を表す前記作業軸のパラメータの値との関係を確立し 、 前記主体のサンプル位置の前記制御点の値を、前記作業軸に沿う所望の中間位置 の前記制御点の値に写像して前記主体の中間図を形成し、前記サンプル図と形成 された中間図から、前記主体を含む種類内の任意の対象のアニメーションの原型 を定義する像シーケンスを形成し、前記コンピュータシステムの表示手段により 前記像シーケンスを表示して、ある動作をしている前記主体の図形アニメーショ ンを提供する、段階を備える方法。
JP5512574A 1992-01-13 1993-01-08 メモリを利用した計算機図形処理の方法と装置 Pending JPH07509081A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US07/819,767 US5416899A (en) 1992-01-13 1992-01-13 Memory based method and apparatus for computer graphics
US819,767 1992-01-13
PCT/US1993/000131 WO1993014467A1 (en) 1992-01-13 1993-01-08 Memory-based method and apparatus for computer graphics

Publications (1)

Publication Number Publication Date
JPH07509081A true JPH07509081A (ja) 1995-10-05

Family

ID=25229004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5512574A Pending JPH07509081A (ja) 1992-01-13 1993-01-08 メモリを利用した計算機図形処理の方法と装置

Country Status (12)

Country Link
US (2) US5416899A (ja)
EP (2) EP0709810A3 (ja)
JP (1) JPH07509081A (ja)
KR (1) KR950700576A (ja)
AT (1) ATE140091T1 (ja)
AU (1) AU660532B2 (ja)
CA (1) CA2126570A1 (ja)
DE (1) DE69303468T2 (ja)
DK (1) DK0621969T3 (ja)
ES (1) ES2091593T3 (ja)
GR (1) GR3020963T3 (ja)
WO (1) WO1993014467A1 (ja)

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU9015891A (en) * 1990-11-30 1992-06-25 Cambridge Animation Systems Limited Animation
US5416899A (en) * 1992-01-13 1995-05-16 Massachusetts Institute Of Technology Memory based method and apparatus for computer graphics
US5640590A (en) * 1992-11-18 1997-06-17 Canon Information Systems, Inc. Method and apparatus for scripting a text-to-speech-based multimedia presentation
USRE43462E1 (en) 1993-04-21 2012-06-12 Kinya (Ken) Washino Video monitoring and conferencing system
JP3345473B2 (ja) * 1993-08-03 2002-11-18 株式会社日立製作所 アニメーション生成方法
US5613048A (en) * 1993-08-03 1997-03-18 Apple Computer, Inc. Three-dimensional image synthesis using view interpolation
AU7603894A (en) * 1993-08-27 1995-03-21 Massachusetts Institute Of Technology Example-based image analysis and synthesis using pixelwise correspondence
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
US5802281A (en) 1994-09-07 1998-09-01 Rsi Systems, Inc. Peripheral audio/video communication system that interfaces with a host computer and determines format of coded audio/video signals
EP0701369A1 (en) * 1994-09-09 1996-03-13 Canon Kabushiki Kaisha Image processing method and apparatus
US5613093A (en) * 1994-10-12 1997-03-18 Kolb; George P. Apparatus and method for drill design
US5854898A (en) 1995-02-24 1998-12-29 Apple Computer, Inc. System for automatically adding additional data stream to existing media connection between two end points upon exchange of notifying and confirmation messages therebetween
US5826269A (en) * 1995-06-21 1998-10-20 Microsoft Corporation Electronic mail interface for a network server
US5818461A (en) * 1995-12-01 1998-10-06 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of computer animated objects
US5883638A (en) * 1995-12-01 1999-03-16 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of computer animated objects by providing corrective enveloping
US5854634A (en) * 1995-12-26 1998-12-29 Imax Corporation Computer-assisted animation construction system using source poses within a pose transformation space
US5970504A (en) * 1996-01-31 1999-10-19 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus and hypermedia apparatus which estimate the movement of an anchor based on the movement of the object with which the anchor is associated
US6144972A (en) * 1996-01-31 2000-11-07 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique
AU718608B2 (en) 1996-03-15 2000-04-20 Gizmoz Israel (2002) Ltd. Programmable computer graphic objects
US20040243529A1 (en) * 1996-03-25 2004-12-02 Stoneman Martin L. Machine computational-processing systems for simulated-humanoid autonomous decision systems
US7885912B1 (en) 1996-03-25 2011-02-08 Stoneman Martin L Humanoid machine systems, methods, and ontologies
US8983889B1 (en) 1996-03-25 2015-03-17 Martin L. Stoneman Autonomous humanoid cognitive systems
US5956491A (en) 1996-04-01 1999-09-21 Marks; Daniel L. Group communications multiplexing system
US5689437A (en) * 1996-05-31 1997-11-18 Nec Corporation Video display method and apparatus
US5793382A (en) * 1996-06-10 1998-08-11 Mitsubishi Electric Information Technology Center America, Inc. Method for smooth motion in a distributed virtual reality environment
US5768513A (en) * 1996-06-27 1998-06-16 At&T Corp. Multimedia messaging using the internet
US5784561A (en) * 1996-07-01 1998-07-21 At&T Corp. On-demand video conference method and apparatus
US6570587B1 (en) 1996-07-26 2003-05-27 Veon Ltd. System and method and linking information to a video
US5933150A (en) * 1996-08-06 1999-08-03 Interval Research Corporation System for image manipulation and animation using embedded constraint graphics
JPH1097514A (ja) * 1996-09-24 1998-04-14 Masahiko Shizawa 多価写像学習方法
US5945999A (en) * 1996-10-31 1999-08-31 Viva Associates Animation methods, systems, and program products for combining two and three dimensional objects
US6690654B2 (en) 1996-11-18 2004-02-10 Mci Communications Corporation Method and system for multi-media collaboration between remote parties
US5963217A (en) * 1996-11-18 1999-10-05 7Thstreet.Com, Inc. Network conference system using limited bandwidth to generate locally animated displays
US6754181B1 (en) 1996-11-18 2004-06-22 Mci Communications Corporation System and method for a directory service supporting a hybrid communication system architecture
US7145898B1 (en) 1996-11-18 2006-12-05 Mci Communications Corporation System, method and article of manufacture for selecting a gateway of a hybrid communication system architecture
US6335927B1 (en) 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
US6151619A (en) * 1996-11-26 2000-11-21 Apple Computer, Inc. Method and apparatus for maintaining configuration information of a teleconference and identification of endpoint during teleconference
US6018710A (en) * 1996-12-13 2000-01-25 Siemens Corporate Research, Inc. Web-based interactive radio environment: WIRE
US6760751B1 (en) * 1996-12-20 2004-07-06 Sony Corporation Method and apparatus for automatic sending of E-mail and automatic sending control program supplying medium
US6731625B1 (en) 1997-02-10 2004-05-04 Mci Communications Corporation System, method and article of manufacture for a call back architecture in a hybrid network with support for internet telephony
US5969721A (en) * 1997-06-03 1999-10-19 At&T Corp. System and apparatus for customizing a computer animation wireframe
US5956701A (en) * 1997-06-13 1999-09-21 International Business Machines Corporation Method and system for using an artificial neural net for image map processing
US6205473B1 (en) * 1997-10-03 2001-03-20 Helius Development Corporation Method and system for asymmetric satellite communications for local area networks
US6014150A (en) * 1997-08-01 2000-01-11 Avid Technology, Inc. System and method of defining and employing behaviors for articulated chains
US6307576B1 (en) * 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
AU9808298A (en) * 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
US6216119B1 (en) * 1997-11-19 2001-04-10 Netuitive, Inc. Multi-kernel neural network concurrent learning, monitoring, and forecasting system
US6449001B1 (en) 1997-11-21 2002-09-10 William W. Levy Video teleconferencing assembly and process
US7159009B2 (en) * 1997-12-17 2007-01-02 Sony Corporation Method and apparatus for automatic sending of e-mail and automatic sending control program supplying medium
FI115747B (fi) * 1998-02-12 2005-06-30 Nokia Corp Tiedonsiirtomenetelmä
US6421463B1 (en) 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US6356669B1 (en) 1998-05-26 2002-03-12 Interval Research Corporation Example-based image synthesis suitable for articulated figures
US6233605B1 (en) * 1998-07-09 2001-05-15 Ncr Corporation Low-bandwidth remote conferencing
US6212548B1 (en) 1998-07-30 2001-04-03 At & T Corp System and method for multiple asynchronous text chat conversations
US6681010B1 (en) 1998-09-01 2004-01-20 Genesys Telecommunications Laboratories, Inc. Methods, systems and computer program products for automatic task distribution
US6215498B1 (en) 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
US6351267B1 (en) 1998-12-10 2002-02-26 Gizmoz Ltd Fast transmission of graphic objects
US6433813B1 (en) 1998-12-28 2002-08-13 Ameritech Corporation Videoconferencing method and system for connecting a host with a plurality of participants
US6604129B2 (en) 1999-03-25 2003-08-05 At&T Corp. Method and apparatus for a conference call mediation service
US6591293B1 (en) 1999-03-31 2003-07-08 International Business Machines Corporation Application presentation synchronizer
WO2000060483A1 (en) * 1999-04-01 2000-10-12 Multitude, Inc. Apparatus and method for creating audio forums
US6611822B1 (en) * 1999-05-05 2003-08-26 Ac Properties B.V. System method and article of manufacture for creating collaborative application sharing
US6904185B1 (en) * 1999-12-16 2005-06-07 Eastman Kodak Company Techniques for recursively linking a multiply modified multimedia asset to an original digital negative
US6731308B1 (en) * 2000-03-09 2004-05-04 Sun Microsystems, Inc. Mechanism for reciprocal awareness of intent to initiate and end interaction among remote users
DE10018143C5 (de) * 2000-04-12 2012-09-06 Oerlikon Trading Ag, Trübbach DLC-Schichtsystem sowie Verfahren und Vorrichtung zur Herstellung eines derartigen Schichtsystems
US6552733B1 (en) * 2000-04-20 2003-04-22 Ati International, Srl Configurable vertex blending circuit and method therefore
US7091975B1 (en) * 2000-07-21 2006-08-15 Microsoft Corporation Shape and animation methods and systems using examples
JP2004523813A (ja) * 2000-09-29 2004-08-05 シーメンス アクチエンゲゼルシヤフト 時間的に変化する複数の状態記述を計算器支援してマッピングするための方法および装置、並びにそのような装置のトレーニング方法
US7091976B1 (en) 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US6976082B1 (en) 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
US20080040227A1 (en) * 2000-11-03 2008-02-14 At&T Corp. System and method of marketing using a multi-media communication system
US6990452B1 (en) 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US6963839B1 (en) 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US7203648B1 (en) 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6910186B2 (en) * 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
EP1518211A2 (en) * 2000-12-22 2005-03-30 Anthropics Technology Limited Image processing system
US20020180788A1 (en) * 2001-06-01 2002-12-05 Wu Hsiang Min Method of video displaying for E-mails
US7433458B2 (en) * 2001-06-29 2008-10-07 At&T Intellectual Property I, L.P. System and method for viewing contents via a computer network during a telephone call
FR2828572A1 (fr) * 2001-08-13 2003-02-14 Olivier Cordoleani Procede de creation d'un personnage tridimensionnel
US7671861B1 (en) * 2001-11-02 2010-03-02 At&T Intellectual Property Ii, L.P. Apparatus and method of customizing animated entities for use in a multi-media communication application
US7003139B2 (en) * 2002-02-19 2006-02-21 Eastman Kodak Company Method for using facial expression to determine affective information in an imaging system
US6873692B1 (en) * 2002-03-29 2005-03-29 Bellsouth Intellectual Property Corporation Telephone synchronization with software applications and documents
US7779076B2 (en) * 2002-05-31 2010-08-17 Aol Inc. Instant messaging personalization
US7689649B2 (en) * 2002-05-31 2010-03-30 Aol Inc. Rendering destination instant messaging personalization items before communicating with destination
US20030225848A1 (en) * 2002-05-31 2003-12-04 Brian Heikes Remote instant messaging personalization items
US7685237B1 (en) 2002-05-31 2010-03-23 Aol Inc. Multiple personalities in chat communications
US20030225847A1 (en) * 2002-05-31 2003-12-04 Brian Heikes Sending instant messaging personalization items
US8037150B2 (en) 2002-11-21 2011-10-11 Aol Inc. System and methods for providing multiple personas in a communications environment
WO2004049113A2 (en) * 2002-11-21 2004-06-10 America Online, Inc. Multiple personalities
US7636755B2 (en) 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US7908554B1 (en) 2003-03-03 2011-03-15 Aol Inc. Modifying avatar behavior based on user action or mood
US20040179039A1 (en) 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate
US7913176B1 (en) 2003-03-03 2011-03-22 Aol Inc. Applying access controls to communications with avatars
US7173623B2 (en) * 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
US7034836B2 (en) * 2003-05-14 2006-04-25 Pixar Adaptive caching of animation controls
US7944449B2 (en) * 2003-05-14 2011-05-17 Pixar Methods and apparatus for export of animation data to non-native articulation schemes
US7862428B2 (en) 2003-07-02 2011-01-04 Ganz Interactive action figures for gaming systems
US7023454B1 (en) 2003-07-07 2006-04-04 Knight Andrew F Method and apparatus for creating a virtual video of an object
KR100512742B1 (ko) * 2003-07-25 2005-09-07 삼성전자주식회사 휴대용 컴퓨터
US7870504B1 (en) * 2003-10-01 2011-01-11 TestPlant Inc. Method for monitoring a graphical user interface on a second computer display from a first computer
JP4509119B2 (ja) 2003-11-13 2010-07-21 本田技研工業株式会社 部分空間の逐次更新を伴う適応型確率的画像追跡
US7534157B2 (en) 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
US7677948B2 (en) 2003-12-31 2010-03-16 Ganz System and method for toy adoption and marketing
US7587452B2 (en) 2004-04-23 2009-09-08 At&T Intellectual Property I, L. P. Methods, systems, and products for network conferencing
US7694228B2 (en) 2004-05-26 2010-04-06 At&T Intellectual Property I, L.P. Methods, systems, and products for network conferencing
US7587037B2 (en) 2004-05-26 2009-09-08 At&T Intellectual Property I, L.P. Network conferencing using method for distributed computing and/or distributed objects for presentation to a mobile communications device
US7403969B2 (en) * 2004-05-26 2008-07-22 At&T Delaware Intellectual Property, Inc. Network conferencing using method for distributed computing and/or distributed objects to intermediate host for presentation to a communications device
US9652809B1 (en) 2004-12-21 2017-05-16 Aol Inc. Using user profile information to determine an avatar and/or avatar characteristics
US20060164440A1 (en) * 2005-01-25 2006-07-27 Steve Sullivan Method of directly manipulating geometric shapes
JP4516536B2 (ja) * 2005-03-09 2010-08-04 富士フイルム株式会社 動画生成装置、動画生成方法、及びプログラム
US8606950B2 (en) * 2005-06-08 2013-12-10 Logitech Europe S.A. System and method for transparently processing multimedia data
US7623731B2 (en) * 2005-06-20 2009-11-24 Honda Motor Co., Ltd. Direct method for modeling non-rigid motion with thin plate spline transformation
AU2007237363B2 (en) * 2006-12-06 2010-04-29 2121200 Ontario Inc. Feature codes and bonuses in virtual worlds
KR20120088525A (ko) * 2008-08-05 2012-08-08 가부시키가이샤 에네사이바 설비감시 제어시스템 및 설비감시 제어방법
US8788943B2 (en) * 2009-05-15 2014-07-22 Ganz Unlocking emoticons using feature codes
US20120075354A1 (en) * 2010-09-29 2012-03-29 Sharp Laboratories Of America, Inc. Capture time reduction for correction of display non-uniformities
WO2016172506A1 (en) 2015-04-23 2016-10-27 Hasbro, Inc. Context-aware digital play
US10917611B2 (en) 2015-06-09 2021-02-09 Avaya Inc. Video adaptation in conferencing using power or view indications
CN106056654B (zh) * 2016-05-30 2019-12-17 武汉开目信息技术有限责任公司 一种三维装配仿真中工序视频输出与播放方法
US11389735B2 (en) 2019-10-23 2022-07-19 Ganz Virtual pet system
US11358059B2 (en) 2020-05-27 2022-06-14 Ganz Live toy system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3510210A (en) * 1967-12-15 1970-05-05 Xerox Corp Computer process character animation
US4414621A (en) * 1977-06-13 1983-11-08 Canadian Patents & Development Ltd. Interactive visual communications system
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
US4797836A (en) * 1986-11-19 1989-01-10 The Grass Valley Group, Inc. Image orientation and animation using quaternions
SE8801043D0 (sv) * 1988-03-22 1988-03-22 Orjan Strandberg Genimator
US5029997A (en) * 1989-11-16 1991-07-09 Faroudja Philippe Y C Stop-frame animation system
US5245553A (en) * 1989-12-14 1993-09-14 Options Unlimited Research Full-duplex video communication and document generation system
US5261041A (en) * 1990-12-28 1993-11-09 Apple Computer, Inc. Computer controlled animation system based on definitional animated objects and methods of manipulating same
US5416899A (en) * 1992-01-13 1995-05-16 Massachusetts Institute Of Technology Memory based method and apparatus for computer graphics

Also Published As

Publication number Publication date
AU3438093A (en) 1993-08-03
GR3020963T3 (en) 1996-12-31
AU660532B2 (en) 1995-06-29
WO1993014467A1 (en) 1993-07-22
US5416899A (en) 1995-05-16
EP0621969A1 (en) 1994-11-02
EP0709810A2 (en) 1996-05-01
ATE140091T1 (de) 1996-07-15
DE69303468D1 (de) 1996-08-08
CA2126570A1 (en) 1993-07-22
EP0709810A3 (en) 1996-08-14
US5659692A (en) 1997-08-19
DE69303468T2 (de) 1997-01-16
ES2091593T3 (es) 1996-11-01
EP0621969B1 (en) 1996-07-03
KR950700576A (ko) 1995-01-16
DK0621969T3 (da) 1996-11-25

Similar Documents

Publication Publication Date Title
JPH07509081A (ja) メモリを利用した計算機図形処理の方法と装置
US10540817B2 (en) System and method for creating a full head 3D morphable model
Beymer et al. Example based image analysis and synthesis
US10395411B2 (en) Skinned multi-person linear model
CN113421328B (zh) 一种三维人体虚拟化重建方法及装置
Poggio et al. A novel approach to graphics
JP2739444B2 (ja) 3次元モデルによる動き生成装置
Ekmen et al. From 2D to 3D real-time expression transfer for facial animation
Mattos et al. 3D linear facial animation based on real data
Capell et al. Physically based rigging for deformable characters
JP2739447B2 (ja) しわの表現可能な三次元像生成装置
Huang et al. Detail-preserving controllable deformation from sparse examples
Park et al. A feature‐based approach to facial expression cloning
Ren et al. Efficient facial reconstruction and real-time expression for VR interaction using RGB-D videos
Stalpers et al. Deforming geometric models based on a polygonal skeleton mesh
Kitamura et al. A Two-Step Approach for Interactive Animatable Avatars
Kim et al. Decimation of human face model for real-time animation in intelligent multimedia systems
Johnson A Survey of Computer Graphics Facial Animation Methods: Comparing Traditional Approaches to Machine Learning Methods
US20230126829A1 (en) Point-based modeling of human clothing
Su et al. Application of the self-organizing feature map algorithm in facial image morphing
Malik Deep Learning-based 3D Hand Pose and Shape Estimation from a Single Depth Image: Methods, Datasets and Application
Shankar et al. Dynamic hand gesture synthesis and animation using image morphing technique
Morgenstern et al. Animatable Virtual Humans: Learning pose-dependent human representations in UV space for interactive performance synthesis
Allen Learning body shape models from real-world data
Zhu Example-based natural three-dimensional expression generation for virtual human faces