JP2002508867A - 2次元および3次元画像の変換制御用の方法および装置 - Google Patents

2次元および3次元画像の変換制御用の方法および装置

Info

Publication number
JP2002508867A
JP2002508867A JP50505499A JP50505499A JP2002508867A JP 2002508867 A JP2002508867 A JP 2002508867A JP 50505499 A JP50505499 A JP 50505499A JP 50505499 A JP50505499 A JP 50505499A JP 2002508867 A JP2002508867 A JP 2002508867A
Authority
JP
Japan
Prior art keywords
image
data set
starting
graphical
multiplier value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP50505499A
Other languages
English (en)
Inventor
ディー. シャウ,クリストファー
ウィルソン,オリオン
Original Assignee
ハプテック,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハプテック,インコーポレイティド filed Critical ハプテック,インコーポレイティド
Publication of JP2002508867A publication Critical patent/JP2002508867A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 本明細書に説明されている方法と装置は、モーフスすなわち開始グラフィカル画像を目的グラフィカル画像に変更することを自動化しかつ付加的特性を与える。本発明によって生成される改善された自動付加モーフスが、アニメーション技術の制限された範囲を拡大し、モーフプロセス中にキャラクターが喋り動作し感情表出することが可能である可動モーフスと、様々なキャラクターを生成するためにキャラクターに対して特徴が連続的に付加されることが可能であるパラメトリックキャラクター生成と、自動的に新たに生成されたキャラクターにキャラクターの挙動が自動的に転移されることが可能である挙動転移と、連続的な挙動パターンがキャラクターに同時に転移または授与されることが可能である挙動積み重ねとを実現する。本発明は、アニメーターが2次元画像または3次元画像を瞬時にかつ流動的に生成し、動かし、制御し、変形させることを可能にする。本発明は、アニメーション技術の既存状態の範囲と特性を拡張する優れた解決策を、従来によりも著しく低いコストで提供する。

Description

【発明の詳細な説明】 2次元および3次元画像の変換制御用の方法および装置 発明の分野 本発明は、2次元画像および3次元画像の制御および変換のための自動化され た方法と装置とに関する。さらに特に、本発明は、1つ以上の変更データセット を使用することによって画素をリアルタイムで変化させるための方法と装置とに 関する。 著作権の注意 本特許文献の開示内容の一部分は、著作権保護を受ける資料を含む。著作権所 有者は、特許商標庁の特許ファイルまたは記録に示される通りの特許文献または 特許開示内容の複写のいずれに対しても異議を唱えないが、それ以外のあらゆる 場合には、全ての著作権を保有する。 発明の背景 第8図を参照すると、この図には当業で公知のコンピュータシステムが示され ている。コンピュータシステム810は、Intel Corporation ,Santa Clara,Californiaによって製造されるPent ium(登録商標)プロセッサのようなプロセッサ811を有するシステムユニ ットを含む。このプロセッサは、ブリッジ回路813によってシステムメモリ8 12(例えば、ランダムアクセスメモリ(RAM))に結合されている。ブリッ ジ回路813は、プロセッサ811とシステムメモリ812とを、PCI規格( Version 2.1,1995,P CI Special Interest Group,Portland,O regon)に準拠して動作するバスのようなバス814に結合する。システム 810は、さらに、バス814に接続されているグラフィックスアダプタ815 も含み、このグラフィックスアダプタ815は、バスからのデータ信号を陰極管 (CRT)ディスプレイ、アクティブマトリックスディスプレイ等のようなディ スプレイ装置820における出力のための情報に変形する。第1図のコンピュー タシステムを使用して、グラフィカル画像がディスプレイ装置820に表示可能 である。グラフィカル画像がコンピュータシステム810に対して内部的に生成 されるか、または、入力装置830(例えば、スキャナ、ビデオカメラ、ディジ タルカメラ等)によって入力されることが可能である。当業では公知であるよう に、グラフィカル画像は、その各々が表示されることが可能である多数の2次元 画素すなわち「ピクセル」として記憶される。 現状の技術では、1つ以上のピクセルの2次元位置を(例えば、マウスのよう なカーソル移動によって)「動かす」ことによってユーザがグラフィカル画像を 変更することを可能にすることによって、グラフィカル画像(例えば、人物の顔 の画像)が変化させられることが可能である(例えば、Adobe Photo shop Version 3.0.5(Adobe Systems,Inc .,San Jose,California))。そうする際には、移動され ている1つのピクセルの周囲の他のピクセルが、新たなデータまたはグラフィカ ル画像からのその他のピクセルデータによって埋められる。例えば、人物の顔の グラフィカル画像は、この製品を使用して人物の鼻を大きくしたり小さくしたり することによって変更されることが可能である。この2次元的現象は、「ゴムシ ート」上にプリントされた写真を引っ張ったり歪めたりすることに 類似している。MeTaTool,Inc(Carpinteria,Cali fornia)の「Kai’s Power Goo」製品では、写真の変形が 、コンピュータスクリーン上に表示されている写真の表面上を操作者がマウスで 「クリック」および「ドラッグ」することによって「リアルタイム」で行われる ことが可能である。その操作者は、マウスの移動に伴って写真の伸び縮みを見る ことが可能である。このプロシージャは2次元画像を対象にするにすぎず、喋っ たり感情を表出したりするような高度のキャラクターのアニメーションを可能に はしない。 現状の技術では、映画やビデオで見られるような1つの画像を別の画像に段階 的に形状変化させることが「モーフ」と呼ばれている。現在のモーフは、特定の 開始画像の形状を特定の目的画像に変形させるようにコンピュータに命令する操 作者によって作り出される。典型的には、操作者が特定の開始画像の輪郭上の特 定の点を選択し、その次に、これらの点の各々を新たな位置に割り当て、それに よって所望の目的画像の新たな輪郭を画定することを可能にすることによって、 モーフプログラムが機能する。その次に、コンピュータが、(1)これらの点の 各々を始点から終点に滑らかに動かすことと、(2)モーフ進行中に画像内のそ の他の点全ての移動を補間することとによって、モーフを行う。 上記のこの方法には2つの明らかな欠点がある。第1に、この方法は、各々の 所望の変形のためにカスタムメイドのモーフが生じさせられることを必要とする 。第2に、この方法が、モーフがそれに対して行われる単一の画像またはフレー ムが選択されることを必要とするので、キャラクターの動作のフレーム毎の進行 が、モーフ進行中は停止しなければならない。これが、現行の映画において、モ ーフ進行中にはキャラクターが喋ったり動作したりはしないことの 理由である。現時点でモーフが比較的迅速に(すなわち、数秒内で)行われるの は、そうすれば、この動作の停止が観客に見破られないからである。 最近の映画では、キャラクターがモーフする(例えば、James Came ronの「Terminator 2」の悪漢ロボットが液体金属形態に変化す る)時には常に、モーフの進行中はキャラクターが動作を停止する。1997年 5月に発表された「Fifth Element」では、キャラクターが自分の 頭を前後に揺すっている間にエイリアンから人間形態に変化するのが見てとれる 。これは、モーフの進行中にキャラクターが動作しているように見せかけている が、実際には、キャラクターの頭部が揺動している間、その下にあるキャラクタ ーの頭部の3D画像は停止しているのである。この方法は単に「フリーズフレー ム(freeze frame)」の3Dの等効物であるにすぎない。この方法 は、モーフ進行中にモーフ中のキャラクターが喋ったり、動作したり、感情を表 出したりすることを可能にはしない。今日の映画で使用されている静的モーフ手 法は低速でありかつ著しく高コストである。 発明のサマリー 本発明の実施様態では、第1のグラフィカル画像の第1の領域が識別され、そ の次に、予め決められた第1の変更データセットに基づいてこの領域が変更され る。グラフィカル画像のモーフ(morph)にこの方法を使用して、本発明の さらに別の実施様態によって、様々な応用が行われることが可能である。 第1に、第1の開始画像のためのモーフ(例えば、変更データの適用)が、他 の開始画像に容易に適用されることが可能である。言い換えると、そのモーフが 、自動的に、様々な開始画像に対して各 々に特有の仕方で所望の特徴を与える。モーフを生じさせるために特定の開始画 像上の各点の個別の選択と割当てとを必要とする従来技術に比べた場合に、この ことは改善を意味する。本明細書に開示されている本発明の方法は、このプロセ スを自動化するのである。特定の画像のモーフ、例えば、ある人物の大人から子 供へのモーフ、を個別的に生成させることをアーティストまたは技術者に要求す るのではなく、本発明のモーフは、単一の「チンパンジー」モーフを使用して様 々な種類の人間、動物、または、他のキャラクターがチンパンジー風にされるこ とを可能にする。この事例が図1に示されており、この図では、「チンパンジー 化」に関連する単一のモーフが3つの異った開始画像に適用されている。各々の 場合に、結果として得られる画像が、開始画像各々の認識可能な特徴を維持して いると同時に、「チンパンジー」モーフの所望の特徴を各々に独特な形で具体化 している。従って、従来においては、こうしたモーフは変更データと呼ばれてき た。変更データの例は、下記でさらに詳細に説明するデルタセット(delta set)とデルタゾーン(deltazone)を含む。簡略的に述べると、自 動化モーフの所望の効果を保持する形で、個々の画像が個別的に変更されるよう に、デルタセットまたはデルタゾーンが、個々の画像内の領域を特徴毎にカテゴ リーによって識別する。単一のモーフが様々な画像に適用可能なので、モーフが 、そのモーフが効果を及ぼす画像から独立して、質的実体として存在する。この 独立性は、全く新しいツールであるモーフライブラリ(morph libra ry)、すなわち、上記「チンパンジー化」の例に示されているように特有の所 望の効果を生じさせるために任意の開始画像に対して普遍的に使用されることが 可能である所望の変更または強調のコレクションを生じさせる。 第2に、画像に特定の特徴または性質を加えるために画像がモーフされた後に 、その結果得られた画像が、第2の特徴または性質を加えるための第2のモーフ を受けることが可能である。第2図は、子供風のチンパンジーを生じさせるため に「チンパンジー」モーフが「子供」モーフに加えられる、この付加特性の単純 な事例を示している(他の例がさらに詳細に後述される)。自動付加モーフシス テムの付加特性が、モーフプロセスに新たな機能性と範囲とをもたらすために様 々な形で使用されることが可能である。自動付加モーフの5つの付加特性の各々 を、その実際の適用例と共に下記で説明する。 第3に、グラフィカル画像キャラクターが喋ったり動作したり感情表出したり することを可能にするモーフが実現されることが可能である。本発明の実施様態 では、自動付加モーフを(「モーフシーケンス」)に対して交互適用することに よって、キャラクターがモーフ進行中に口の動きと動作と感情表出とを続けるこ とが可能である、可動モーフが実現できる。当業で公知であるモーフシーケンス (例えば、the University of California at Santa CruzのMichael Cohen博士によるプログラムと 、Protozoa Inc.(San Francisco,Califor nia)の作品に示されているモーフシーケンス)は、コンピュータ生成キャラ クターに「Viseme」モーフシーケンスを施すことによって、そのキャラク ターがまるで話しているかのように、そのキャラクターが喋ることを可能にする 。(Visemeは、音素の視覚上の同等物であり、すなわち、発声時にキャラ クターが作る顔つきである。)こうしたプログラムは、停止中のキャラクターの 特定の初期画像と、目的画像のコレクションとを使用する。各々の目的画像が、 共通の発声で 使用される特定の顔面状態すなわち「Viseme」に対応する。第3図は、ア ニメーション画像を発声時の唇の動きに近づけるために、どのようにこれらの目 的画像をモーフシーケンスで互いに繋ぎあわせるかを示している。この図は、キ ャラクターが単語「pony」を発声することを可能にするViseme端点の シーケンスを示している。このシーケンスの生成と性能には、本明細書に示され ているモーフシステムの特有な特性が不要であるということを指摘することが重 要である。従来技術におけるこのシーケンス内のモーフは普遍化されておらず( 全てが、1つの特定の開始画像の変形である)、付加的ではない。従来技術で使 用されるVisemeは次から次へと連続するのであって、互いに付加されるこ とはない。本発明の実施様態では、モーフシーケンスの使用が、喋りだけでなく 、感情の流れと感情的反応の身体的要素とに拡大される。 例えば、第4図は、第3図における上記「pony」モーフシーケンスに対す る自動付加モーフの交互付加を示す。この図では、キャラクター画像の4つの縦 列が、上記「チンパンジー」モーフの漸進的適用を示す(左から右に、開始画像 に対する適用の前に、0%、33%、66%、100%の乗数値を変形データに 掛け算する)。(本発明による自動付加モーフの全てと同様に)「チンパンジー 」モーフがその開始点に関しては非特異的であるので、モーフシーケンス内の開 始点を変化させながら「チンパンジー」モーフを漸進的に適用することによって 、黒い線で囲まれている対角線方向の正方形で示されている推移を生じさせるこ とが可能である。第4図の最下部に水平に示されている、この対角線方向の推移 が、モーフ中に喋ることが可能であるキャラクターを生じさせる。これが、可動 モーフの基本構造である。従来のモーフ(普遍的であるよりも特異的である)は 、この形で交互適用されることは不可能である。本発 明の方法を使用して生成されるキャラクターは、モーフシーケンスによって、喋 るだけでなく、さらには感情を表出し反応するように形成されることが可能であ る。従って、キャラクターは、従来技術のモーフの場合にそうであるようにモー フが完了するまで「停止フレーム(freeze frame)」である必要が 無く、自動付加モーフ中に完全に動作可能な状態であることが可能である。この 交互追加プロシージャのさらに別の利点は、開始キャラクターと最終キャラクタ ーの混成物である完全に動作可能な一貫した新たなキャラクターを得るために、 任意の時点でモーフが停止させられることが可能であるということである。 第4に、本発明の方法は、データベースまたはライブラリに記憶されている変 更データを使用して、新たに生成されたキャラクターが自動的に喋り、動作し、 感情を表すパラメトリックキャラクター生成を実現する。自動付加モーフシステ ムでは、(1)モーフが、あらゆる個別の開始画像から独立した質的属性として 存在することが可能であり、(2)モーフが、累積的効果を生じさせるために逐 次的に適用されることが可能である。質的属性が、外観パラメタ(鼻の長さおよ び幅、顎の出っ張りパラメタ、顔の丸み等)として定義される場合には、これら の属性が、単一の開始画像から任意の所望の顔を生成するように選択的に適用さ れることが可能である。例えば、多民族的な開始キャラクターが定義され、任意 の所望のキャラクターを生成するようにキャラクター特徴を調整するために使用 可能な外観パラメタのモーフライブラリが生成される。第5図は、このプロセス の一例を示す。明瞭に目に見える変化を生じさせるように、この図のパラメタ調 整は粗く、マンガ風である。リアリスティックなキャラクターの生成では、これ よりはるかに多いパラメタが、より一層漸進的に適用されることが可能である。 この図に示さ れている最初の3つのモーフは「形状モーフ」である。第5図の最後のステップ では、顔の形状自体の変化ではなく、顔の形状の上に重ねられている配色すなわ ち「スキン」が変化させられる。このステップは、結果として得られるキャラク ターにおける、所望の髪毛の色、目の色、皮膚の色合い、顔の毛等を生成するた めに使用される。 第5に、自動的に喋り、感情を表出し、動作するキャラクターを生成するため に、上記のパラメトリックキャラクター生成が、上記の可動モーフと組み合わさ れることが可能である。この2重の適用が第6図に示されており、この場合には 、基盤をなす構造だけでなく、オリジナルのキャラクターの完全な口の動きと感 情表出の機能性も、自動的に新たなキャラクターに転移される。第6図に示され ているキャラクターは、可変的な身体的外観を含むだけでなく、Visemeと 表情とコンピュータ生成の自律的および反応的挙動との完全なセットも含む。こ れらの機能性の全てが、パラメトリックキャラクター生成を使用して生成される ことが可能である様々なキャラクターに自動的に転移されることが可能である。 このことは、キャラクター自体だけでなく新たなキャラクターが行うあらゆる感 情表出、Viseme、瞬き等までもカスタムメイドで生成することを必要とす る既存のプロシージャに比べて、アニメーション時間およびコストの指数関数的 節約を意味する。 第6に、モーフシーケンスは、別々の挙動シーケンスを同時に組み合わせるた めに使用されることが可能である。第7図は、感情表出シーケンスと、喋るシー ケンスとの同時使用を示している。この図では、キャラクターに「pony」と 言わせるのに必要なVisemeシーケンス(左列の絵)が、各シーケンスのタ イミングが維持されるように感情表出モーフシーケンス(中央の列)に加えられ ている。その結果として得られるシーケンス(右列)が、喋ると同時に感情を伴 って反応することが可能であるキャラクターを生成する。このプロシージャが、 自律的な感情要素(様々な感情または「ムード」を表すデルタのコンピュータ生 成循環)を、反応性要素(感情的影響をキャラクターに割り当てたキャラクター の環境内の要素の近接によって起動される感情的デルタ)と組み合わせるために 使用されることも可能である。こうしたプロシージャが、意識的感情と無意識的 感情との間の相互作用を視覚化するために使用されることが可能である。 本発明の上記の実施様態と他の実施様態とを、以下でさらに詳細に説明する。 図面の簡単な説明 第1図は、本発明の実施態様に基づく自動化モーフの例を示している。 第2図は、本発明の実施態様に基づく自動化加法モーフの例を示している。 第3図は、本発明の実施態様にしたがって実施できるモーフ・シーケンスの例 を示している。 第4図は、本発明の実施態様に基づくムーヴィング・モーフの例支援している 。 第5図は、本発明の実施態様に基づくパラメトリック・キャラクタ作成の例を 示している。 第6図は、本発明の実施態様に基づく自動動作転移の例を示している。 第7図は、本発明の実施態様に基づく動作層化の例を示している。 第8図は、技術上周知のコンピュータ・システムである。 第9図は、本発明の画像変形システムの全体ブロック図である。 第10a−d図は、人間の頭部などのグラフィック画像の表示に使われる多角形 モデルである。 第11a−f図は、本発明の実施態様に基づくデルタセットの応用を示す多角形 モデルである。 第12a−g図は、本発明の実施態様にしたがって生成される人の頭部のグラフ ィック画像である。 第13図は、ある画像にデルタセットを応用した場合に生じる変形の量を制御す るための入力装置を示している。 第14a−d図は、本発明の実施態様にしたがって生成される人の頭部のグラフ ィック画像である。 第15図は、本発明の典型的方法の場合の通信システム環境を示している。 詳細な説明 本発明の実施態様にしたがって、目的画像を構成するために初期画像に応用で きる変更データが生成される。たとえば、変更データは第一の画像と第二の画像 の間の差を決定することによって生成される差の値とすることができる。この差 が決定されたら、これを記憶して、映画業界において行われるモーフィングに関 する上記の大量のこまごとの手順を行うことなく、どのような初期画像にも上記 の値を応用して新しい目的画像を作成することができる。この差の値は、同じ数 の頂点を持つ形状間のモーフィングを容易にするために頂点ごとに作成すること ができる。代わりに、初期画像内での点の位置が自動化モーフ内でのモーション を決定するように、差の値を空間的に割り当てることができる。こうすることに よって、頂点 を明確に特定する必要がなくなり、与えられる画像の多角形構造に関係なくこれ らの方法および装置が機能できるようにすることができる。単純化するために、 変更データとしてデルタセットを使用する頂点ベースの自動化加法モーフィング ・システムの例について、下に説明する。デルタゾーン(変更データの別の例) など、多角形構造に関係なく画像をモーフィングできるポジション・ベースまた は空間ベースのモーフィング・システムは、頂点間のモーションを補間すること により作成される。 頂点ベースの本発明の実施態様の例は、各々空間ロケーション(たとえば二次 元空間または三次元空間において)を持つ第一の数の頂点から成る第一の画像( たとえばニュートラルまたは初期画像)の生成を含み、同じ数の頂点を持つ第二 の画像(たとえば目標または目的画像)が生成される。第一の画像の第一の頂点 と第二の画像のこれに対応する頂点の差は、2つの頂点の間のロケーションの差 によって決まる。この差は、その後メモリ装置(たとえばRAM、ハードディスク 装置など)に記憶される。第一の画像と第二の画像のすべての対応する頂点の差 の値は、このステップを使って作成され、変数アレイ(本文書においてはデルタ セットと呼ぶ)として記憶することができる。次に、デルタセットを第一の画像 に応用して、第一の画像の頂点を第二の画像の該当のロケーションに移すことに よって、第二の画像を作成することができる。その代わりに、増倍または比率の 値にデルタセットのエントリを掛けて、第一の画像に応用して、中間グラフィッ ク画像を作成することができる。本発明の特徴によれば、デルタセットは、等し い数の頂点を持つどのような初期画像にも応用することができる。これにより、 ユーザーは、オリジナルのデルタセットを作成するために使われた数理計算を再 度行わなくても、新たな目的画像を作成することができる。 第9図を参照すると、本発明の画像変形システム900の全体ブロック図が示さ れている。本発明の実施態様にしたがって、システム900は、デルタセットのラ イブラリまたはデータベース931を含んでいる。デルタセットのライブラリ931は 、システム・メモリ912または小型コンピュータ標準インターフェイス(SCSI) ホスト・バス・アダプタ918を通じてバス914に連結されるハードディスク・ドラ イブ917などその他のメモリ装置に記憶することができる(第8図を参照のこと )。下に詳しく説明するとおり、デルタセットは、初期画像の頂点に応用できる ポジション変動値の変数アレイである。第9図を参照すると、デルタセット情報 は、装置932(たとえば第8図のプロセッサ811およびシステム・メモリ812)に おいて構成され、キャッシュ・メモリとして記憶される。ここで、ニュートラル の形状933持つ第一の画像または初期画像を最終形状935を持つ目標画像に変形す るためにデルタセット情報が使われる。装置934により特徴(たとえば、毛)ま たはアクション(たとえば見回す)の追加など追加の形状処理を行うことができ る。その後、初期画像および第二の画像の両方をディスプレイ920または他の出 力装置(メモリ)に表示するか、またはファイル・エクスポート(たとえばイン ターネット・システム)に送ることができる。 第9図のシステム900への入力には、多様なユーザー制御937、自律動作制御93 8およびフェイス・トラッカ・データ入力939が含まれる。これらについては、下 でさらに説明する。その他の入力はいわゆるワールドワイド・ウェブ(WWW)な どその他のシステムから来ることが考えられる。また、デルタセット・キャッシ ングおよび構成装置932にデータを送ることができるオーディオ・データ入力装 置940も、オーディオ・データを送ることができる。 この実施態様において、ニュートラル形状933は、多様な既知の 方法(たとえば、ビデオ、スキャナなど)を使用して捕捉された人の頭部の画像 を土台としている。第10図を参照すると、人の頭部の画像データが多角形モデル 1051に置かれている。多角形モデルは、多数の頂点1052および頂点間に伸びる接 続線1053から成る。多角形モデルの各多角形1054は、3つ以上の頂点1052により 定義される。デルタセットの生成および第10a図の多角形モデルへのその応用を 示すために、単純な多角形(たとえば、正方形、三角形、長方形及び円形)を使 用して、下に例を示す。 各多角形は、識別可能な形状を持つ。たとえば、第11a図を見ると、二次元空 間に8つの頂点(点1100から1107まで)を持つ正方形が示されている。個々の頂 点を動かすことにより、正方形を長方形(第11b図)、円形(第11c図)及び三 角形(第11d図−三角形においては頂点1100、1101及び1107が二次元において同 じ点に在る)など多数の他の多角形に変換することができる。デルタセットは、 各頂点(1100から1107まで)を初期多角形から目標または目的多角形に移動する ための一連のステップである。たとえば、第11a図の正方形から第11b図の長方 形にするために必要なステップは、頂点1105、1106及び1107を一定距離"x"左に 移動し、点1100、1102および1103を同じ距離"x"右に移動し、頂点1100および110 4を同じ位置に置くことである。このように、デルタセットは、初期多角形から 目的の多角形に変形するときに各頂点が取るパスを定義する。言い換えると、デ ルタセットは、初期多角形と目標多角形の対応する頂点のポジションの差を定義 する。同様に、デルタセットは、第11a図の正方形を第11c図の円形に及び第11 a図の正方形を第11d図の三角形に変形するために作成することができる。 この実施態様において、デルタセットは、初期多角形を別の多角形に変形する ことによって作成されるが、当業者は、初期形状及び 目標形状を特定の形状とせず抽象的観念で作成できることが分かるだろう。さら に、デルタセットがひとたび作成されれば、新しい形状を作成するためにどのよ うな初期形状にもこれを使用できる。たとえば、第11a図の正方形を第11b図の 長方形に変形するために使われるデルタセット(便宜上デルタセット1と呼ぶ) を、第11c図の円形に使用することができる。こうすると、第11c図の円形が初 期形状となり、デルタセット1を応用した後、第11e図の楕円形(すなわち、目 標形状)になる。 デルタセットは、組み合わせて(たとえば加算して)新しいデルタセットを作 成することもできる。このように、デルタセット1、デルタセット2(すなわち 、第11a図の正方形から第11c図の円形への変形)及びデルタセット3(すなわ ち、第11a図の正方形から第11c図の三角形への変形)を組み合わせて、新しい デルタセット(デルタセット4)を構成することができる。第11a図の初期正方 形にデルタセット4を応用すると、第11f図の目標形状が得られる。もっとも単 純な形態では、初期多角形、目的多角形及びデルタセットが同じ頂点の数を持た なければならない。頂点の数の異なる形状または対象間での変形には、追加の算 法が必要となる。 頂点を移動するための付加的方法は、モーションの連続フィールドが作成され るようにデルタセットの点までのモーションを補間するというデルタセット方法 から得ることができる。デルタゾーンと呼ばれるこれらのフィールドを使えば、 デルタセットが依存する運動と頂点の間の1対1の対応は、その初期ロケーショ ンにしたがって頂点を移動することにより数に関係なく頂点に作用する動的なモ ーション・システムに代わるので、特定の三角ストリップ・セットに関係なく画 像をモーフィングできる。 本文書においては、デルタセット実施及びグラフィック画像に対 するその作用の例が、技術上周知の"C"及び"C++"プログラミングに基づく擬似コ ードを参照して説明される。デルタセットのデータタイプ構造(Deltaset_Type )は、基本的な形状オブジェクトの場合と同様であり、擬似コードは第1表に示 されるとおりである。 上の表から分かるとおり、Deltaset_type及びshape_type変数は、各々[num points]値のアレイを含む。各値はshape_type変数の頂点のポジション及びDel taset_Type変数のデルタ値である。 初期オブジェクトから目的オブジェクトへのステップまたは差の値の計算を通 じてデルタセットを作成するための中核的ルーチンの例は、第2表に示されると おりである。 でのステップを計算し、これらのステップをデルタセットに記憶させる中核的ル ーチン 上の擬似コードから分かるとおり、変数"delta"は、形状の各頂点についてソ ース(src)と目的(dest)のポジションの差を一時的に記憶するために使われ る。各デルタ値はその後デルタセット・アレイ(dset)に記憶される。デルタセ ット・アレイはひとたび作成されると、同じ数の頂点を持つどのような初期形状 にも簡単に応用して、新しい目標形状を構成することができる。 初期形状に応用できるようにデルタセットを変更するために使うことのできる 擬似コードの例は第3表に示されるとおりである。 上の表から分かるとおり、ルーチンDeltaset_Apply中、"amount"を使って送 られるパーセンテージ量に基づき単一の移行の計算が行われる。目的形状の各デ ータ・ポイントは、そのポイントのデルタセット値にパーセンテージ値"amount" ("amount"はマイナス値または1より大きい値が可能である)を掛けたものに基 づいて計算される。 第4表の擬似コードは、新しいブランク・デルタセットを作成しデータポイン トの数を設定するために使われる2つのユーティリティ・ルーチンを示している 。 第5表を参照すると、第11a図の正方形から第11e図の形状に変形するための 擬似コードの例が示されている。 第5表の擬似コードから分かるとおり、データポイントは二次元ベクトルとし て定義され、正方形、長方形及び円形は横座標及び縦座標の値を持つ8つの点と して定義される。次に、デルタセットが、正方形から長方形へ及び正方形から円 形への移行について計算される。上で分かるとおり、その結果得られるデルタセ ット(rect_dset及びcirc_dset)は、それぞれ初期画像及び目標画像の横座標 及び縦座標の値の間の差を表す。これで、デルタセットを初期形状(この例にお いては初期画像newshapeは第11a図の正方形に設定される)に応用できる。まず 、rect_dsetデルタセットを正方形に応用して中間形状を形成し、次に、circ_ dsetをこの中間形状に応用して、第11e図に示される目的形状を形成する。第11 f図の形状を得るためには、第11a図の正方形から第11d図の三角形への変形を 表すデルタセットを作成し、これを第11e図に示される楕円形に応用する。 上のデルタセットの例は、簡単に三次元表示に拡張することができる。また、 三次元空間及びフェイシャル・アニメーションなどもっと入り組んだ複雑なアプ リケーションにこの例を拡大することができる。フェイシャル・アニメーション においてはデルタセットのアプリケーションが複雑になるにつれて、いくつか追 加の機能を加えることができる。たとえば、顔のある動きを目の瞬きなど特定の エリアに限定する。これに応じて、顔全体のデルタセットは目とまぶたを除いて ほぼ0(変化なしを示す)となり、このエリアが変化のために分離される。効率 をあげるために、デルタセット・データタイプを、非ゼロ値だけを記憶するよう に変えることができる。こうすると、Deltaset_applyルーチン中、グラフィッ ク表現の各ポイントではなく変化するポイントだけが作用を受ける。 フェイシャル・アニメーションの実施態様については、第6表の 擬似コード例を参照しながら下で説明する。 上の例から分かるとおり、動画化された顔の画像は、三次元のデータポイント から成る。"neutralFace"は、1つまたはそれ以上のデルタセットに基づいて変 化する初期画像である。neutralFace画像は、第12a図に示される、目がまっす ぐ前を見て表情のない画像である。"overallMorphFace”はneutralFaceとは異な る顔である。この例では、overallMorphFaceは第12b図に示される猫のイメージ である。完了した顔の動きを示す顔は、"blinkFace"であり、目を閉じている以 外はneutralFaceと同じ顔を示す(第12c図を参照のこと)。"emoteFace"は、1 つまたはそれ以上の感情を示すための増補されたneutralFaceのアレイである。 たとえば、第12d図は、幸福を表現するneutralFaceを示し、第12e図は怒りを 表現するneutralFaceを示している。"speakFace"は、さまざまなフォニームの表 現を示す顔のアレイである。フォニームまたはvisemeは話し言葉を構成するため に使われるシラブルである(たとえば、"oo"、"ae"、"l"および"m"の音)。例と して、第12f図は、フォニーム"oo"を表現するneutralFaceを示している。 変形またはモーフィングの量は、増倍または乗数値、overallMorphAmount、bl inkAmount、emoteAmount[ ]及びspeakAmount[ ]により制御できる。例として、 第12a図のneutralFaceに瞬きのデルタ セットを応用するときblinkAmountを1.0に設定すると、第12c図の顔が得られる (すなわち、瞬き100%が応用される)。この変数に1.0より小さい数または大き い数を選ぶことができる。 次にneutralFace画像を変形するためにデルタセットを作成する。第6表の擬 似コードから分かるとおり、neutralFace(第12a図)からoverallMorphFace( 第12b図)に変えるためにデルタセットoverall_dsetが作成される。neutralFa ce(第12a図)からblinkFace(第12c図)に変えるためにデルタセットblink_ dsetが作成される。neutralFace(第12a図)から各感情表現画像(たとえば第1 2d図の「幸福」のemoteFace[ ]、第12e図の「怒り」のemoteFace[ ])に変え るためにデルタセットemote_dset[ ]が作成される。また、neutralFace(第12 a図)から各フォニーム表現画像(たとえば第12f図の"oo"speakFace[ ])に変 えるためにデルタセットspeak_dset[ ]が作成される。 主アニメーション・ループにおいて、各デルタセット変形の量(たとえば、ov erallMorphAmount、blinkAmount、emoteAmount[ ]、およびspeakAmount[ ])が 計算される。emoteAmount[ ]およびspeakAmount[ ]アレイの場合、値はほとんど ゼロである。作成される新しい顔の画像はnewShapeFaceに記憶され、最初はneut ralFace画像に設定される。次に、上で計算されたデルタセットが、上で計算さ れた変形変数において設定される量だけnewShapeFaceに応用される。この例にお いて、overallMorphAmountは0.5(すなわち、neutralFaceとoverallMorphFaceの 中間)に設定され、blinkAmountは1.0(すなわち完全に閉じたブリンクアイ)に 設定され、「幸福」のemoteAmount[ ]は1.0に、その他のすべてのemoteAmount[ ]値は0に設定され、フォニーム"oo"のspeakAmount[ ]は1.0に、その他のすべて のspeakAmount[ ]値は0に設定される。これらの変数に基づ いて得られる画像が第12g図に示されている。 上に説明したとおり、作成されたデルタセットは、これで、計算しなおさずに 別の初期画像(すなわち、第12a図に示されるneutralFace以外の画像)に応用 できる。これが第14a−d図の例に示されている。上に述べた方法を使って、男 性の顔(第12a図に示される)から猫の顔(第12b図に示される)への変化を表 すneutralFaceとoverallMorphFaceの間のデルタセットを作成することができる 。第14a図から分かるとおり、男性の顔はこのデルタセットを応用せずに示され ている。第14b図は、このデルタセット(またはこのデルタセットの分数値)の 応用の効果を示し、男性の顔が「猫のよう」に見える。第14a図および第14b図 の基礎となる多角形モデルは、それぞれ第10a図および第10b図に示されるとお りである。第10a図および第10b図から分かるとおり、第一の画像の頂点は目的 画像において異なるポジションに移動するように示される。再び第14a図および 第14b図を参照すると、当業者であれば、これらの図の人間の画像と猫の画像の 各ピクセルについて色の差を記憶するデルタセットにしたがって各ピクセルの色 も変化しうることが、分かるだろう。上に説明されるデルタセットはニュートラ ルの女性の顔(第14c図)に応用して、新しい目的画像(第14d図)を形成する ことができる。 また、変数(たとえば、overallMorphAmount)を第13a−d図に示されるグラ フィック・スライダを使って入力することもできる。この例では、いくつかのデ ルタセットを事前に決定しておく。最初のデルタセットは、唇が第一のポジショ ンにある初期画像と唇が第二のもっと高いポジションにある目標画像の間の差を 表す。第二のデルタセットはあごが第一のポジションにある初期画像とあごが突 き出た第二のポジションにある目標画像の間の差をあらわす。第三 のデルタセットは、比較的滑らかな皮膚の初期画像と年を取った(すなわち深い しわの皮膚)目標画像の間の差をあらわす。第13a−d図を参照すると、第一、 第二および第三デルタセットの各々が第13a図のニュートラル画像に応用される 量は、単数または複数のスライダ1301−1303を配置することによって決定される 。この例においては、スライダが中央ポジションにある場合、デルタセットは全 く応用されない(すなわちデルタセットに0.0を掛けたものが画像に応用される )。スライダが右に置かれる場合、デルタセットに1.0を掛けたものが画像に応 用され、左に置かれる場合デルタセットに-1.0を掛けたものが画像に応用される 。したがって、第10a図において、スライダ101-03は中央ポジションにある。第 13b図においては、スライダ1301は右に動かされて(たとえば図に示されないが マウスを使って)、最初のデルタセット(に1.0を掛けたもの)が第13a図のニ ュートラル画像に応用される(こうして、唇がある距離上に動く)。同様に、第 13c図において、スライダ1302が左に動かされて、上に説明される第二のデルタ セット(に-1.0を掛けたもの)が第13b図の画像に応用される(こうして、あご が引っ込む)。また、第13d図において、スライダ1303は右に動かされて、第三 のデルタセット(に1.0を掛けたもの)が第13c図の画像に応用される。当業者 であれば、スライダ1301−03が-1.0から1.0までの中間値を持つことができるこ と、またはこの範囲を超える値を持つことができることが分かるだろう。 上の例から分かるとおり、ひとつまたは複数のデルタセットが作成されると、 第13図の実施態様のスライダ1301−03(たとえば)により制御される乗数値が、 初期画像を変更するために必要な唯一の入力となる。この特徴は、通信の分野で 有利である。第15図を参照すると、通信システムが示されている。このシステム においては、 第一のコンポーネント(サーバー1510など)が送信媒体1509を通じて第二のコン ポーネント(ディスプレイ1512に連結されたクライアント1511など)に連結され る。この例においては、送信媒体1509は、変動するが限定された帯域幅を持つい わゆるインターネット・システムである。サーバー1510およびクライアント1511 は第8図のシステム801と同様のコンピュータ・システムである。第一の画像( たとえば、人の顔)は希望のデルタセット(上に説明するとおり)とともに送信 媒体1509を通じてサーバー1510からクライアントに送られる。一部のコードも送 られて、本文書において説明されるとおりに機能する。画像およびデルタセット はクライアント1511で記憶することができ、画像はディスプレイ1512に表示する ことができる。サーバー1510がクライアント1511で画像を変えるために、新しい 画像全体が送られる必要はない。送信媒体1509を通じてデルタセットの増倍値( たとえば、第13図においてスライダが制御する値)を送って、ディスプレイ1512 で画像に希望の変化を加えることができる。このように、帯域幅が大幅に節約さ れ、画像の動画化および制御がより可能になる。 他の例では、第15図のシステムをビデオ電話システムに用いるが、送信するオ リジナルの画像は伝送媒体1509(例:平易な古い電話システム(POTS))でサー バ1510で発話者のものである。サーバ1510のユーザの会話は、音素に変換でき、 それは伝送媒体1509で音声信号と共に伝送される乗算値に変換され、クライアン ト1511での単語の「発声」を容易にする。 上述のように、人間のグラフィック画像は、例えば、人間の画像から始めてデ ルタセットをニュートラルに適用することで感情を表現することができる。感情 の表現が自立的な場合、人間のコンピュータグラフィック画像はより実物そっく りになる。人間は2つのカ テゴリーまたは極値にあてはまると結論することができる。1つは、幼児などの ような感情的に予測不可能な人(すなわち、感情をランダムに表現)、1つはす べての刺激に予め設定された反応を持つものである。本発明の実施例によれば、 それぞれが1つの感情に対応する多数の軸を含む「感情的状態空間」が作られる 。例えば、「幸福」と「警戒」の2つの感情しかないと想定し、ポイント(1.0 、0.0)でその人が幸福で、眠くも興奮してもおらず、ポイント(0.0、1.0)で 幸福でも悲しくもないが興奮していて、ポイント(-1.0、-1.0)で、その人が悲 しくて眠いとする。表現できる感情はさらに多くあるが、人は主に一度に1個か 2個以上の感情を表現しない。第9図に戻ると、要素937は感情表現に基づいて 中立画像の変更のインプットを提供する。感情表現の擬似符号の例を第8表に示 す。この擬似符号では、2つの感情が選択される。1つは表現されるもの、1つ は表現から現在消えているものである。 上記からわかるように、emoteAmounts[]は、"emoteNum"感情の1つの現在の表 現値のアレイである。例えば、「幸福」という感情に値が設定され(例:-1.0か ら1.0の間)、グラフィック画像の現在の状態を示している(例:第12D図は、 値1.0で「幸福」を表現する中立顔を示す)。NextEmote変数は、表現する次の感 情レベルを保存する。LastEmote変数は、現在表現されており、また消えつつあ る感情のレベルを保存する。この感情が0.0まで消える秒数は変数decaySecsに保 存される。現在の感情量の後に次の感情が表現される秒数は0.0になる。 CalcEmoteAmountRandomルーチンの間、次の感情に行く確率値(probabilityOf NewEmote)と現在の感情の新しい量に変化する確率値(probabilityOfNewAmount )が設定される。そして乱数が生成され、その数が確率値より小さいと、新しい 感情ランダム量が変数nextAmountに割り当てられ、第2乱数が選択され、その数 が確率値よ り小さいと、利用できるものから次の感情が選択され、ランダム量がnextAmount 変数に割り当てられる。 ルーチンのCalcEmoteAmountsReact中、その人のグラフィック画像周囲にある オブジェクトが分析され、どのオブジェクトが最も関心が高いかを決定する(例 :オブジェクトの視認性、速度、その人のグラフィック画像に向かう速度、オブ ジェクト固有の感情反応性、その人のグラフィック画像の視野の中心までの距離 に基づく加重値を割り当てること等で)。各オブジェクトは、予め定義された感 情、反応性および位置を含むデータ構造を持つ。例えば、ガンのオブジェクトは その人への近さに応じて(すなわち距離)高程度の反応性の「恐怖」感情を引き 出すことになる。したがって、最も関心のあるオブジェクト(および人とオブジ ェクトとの関係)に基づき、nextEmotionを選択し、オブジェクトに基づきnextA mountを選択し、上記参照の乱数によって、nextEmotionを人間の画像が表現する か否かを決定する。第8表のルーチンを使って、人間の画像が若干ランダムであ るが特定の剌激に対応して発生可能なより実物に近い感情を表現する。 第8図を参照すると、入力装置830を備えて、ディスプレイ820に出力するグラ フィック画像の生成のためのデータの入力を行う。入力装置830は、ビデオカメ ラ、磁気トラッカー・モニタなどを含む幅広いコンポーネントであることができ る。かかるシステムで、選択したポイントを人の顔で追跡する。これら装置は、 人の顔で多数の選択位置が動く時にその座標と等しい情報ストリームを出力する (第9図の要素939参照)。例えば、口のまわりに6位置、各まぶたに1位置、 各眉毛に1位置、各頬に1位置をすべて追跡して図8のコンピュータシステムに 出力することができる。 本発明の実施例による顔追跡方法、人の中立3次元モデルを上述 のように作成し、顔に(上述のように)マーカーセットを有するテストサブジェ クト(例:人)を用いる。各マーカーについて、3個の3次元モデル顔を作り、 各3D軸(例:x、yおよびz軸)に1個とする。これらモデルはそれぞれ中立 モデルと同じであるが、特定のマーカーが軸の1個に沿って周知の距離(例:1 インチその他単位)移動する。そのため、各マーカーについて、中立画像の制御 バージョンがあり、マーカーはx軸に沿ってのみ1単位動き、第2画像ではマー カーはy軸に沿ってのみ1単位動き、第3の画像は、マーカーはz軸に沿っての み1単位動く。そして中立画像と各マーカーの3個の歪曲バージョンのそれぞれ の間にデルタセットを作る。 作ったデルタセットで、マーカー位置の入力ストリームを入力装置830から受 け取る。そして中立画像は入力位置で直接ではなく、適切なデルタセットで修正 する。マーカーデータが2次元のみなら、対応する2個のゆがんだモデルしか必 要ない(およびそのマーカーには2個のデルタセットしか作られない)。1個の マーカーの動きは中立モデルの他のポイントの動きに影響することがある(実物 を模するか、ユーザが所望の通り)。また、1本の軸でのマーカーの動きは、1 本以上の軸でモデルをゆがませることがある(例:縦方向の左眉毛のマーカーの 動きが、モデルに縦および水平の影響を与えることがある)。マーカー位置の入 力を実施するための擬似符号の例を第9表に示す。 上記からわかるように、入力された中立顔は、添付のマーカーを物理的に動か すことによって顔の動きを模すため作ったデルタセットで修正する。歪みがない と、neutralFaceはオリジナルの3D顔モデルで、outputFaceはサブジェクトの顔 の動きを模する3Dモデルである。フレームあたり1回実行できるメインアニメ ーションループ中、各マーカーがその位置を分析される。その結果としてマーカ ーの変位は上述のデルタセット適用ルーチンと前に作ったデルタセットの利用に よってoutputFaceに適用される(neutralFaceのコピーとして開始)。

Claims (1)

  1. 【特許請求の範囲】 1.グラフィカル画像を変形する方法であって、 (a)第1のグラフィカル画像の第1の領域を識別することと、 (b)予め決められた第1の変更データセットに基づいて前記第1のグラフィ カル画像の前記第1の領域を変更すること、とを含む方法。 2.さらに、段階(a)の後に、(a1)複数の変更データセットを記憶する データベースから前記第1の変更データセットを読み出すこと、を含む、請求項 1記載の方法。 3.さらに、(c)第2のグラフィカル画像の第1の領域を識別することと、 (d)前記予め決められた第1の変更データセットに基づいて少なくとも前記 第2のグラフィカル画像の前記第1の領域を変更すること、とを含む、請求項1 記載の方法。 4.さらに、(e)第2の変更データセットに基づいて前記第1のグラフィカ ル画像の前記第1の領域をさらに変更することを含む、請求項1に記載の方法。 5.さらに、(c)前記第1のグラフィカル画像の第2の領域を識別すること と、 (d)第2の変更データセットに基づいて、段階(b)で変更された通りに前 記第1のグラフィカル画像の前記第2の領域を変更すること、とを含む、請求項 1記載の方法。 6.開始グラフィカル画像を目的グラフィカル画像に変形する方法であって、 (a)第1の画像を生成することと、 (b)第2の画像を生成することと、 (c)前記第1の画像と前記第2の画像との間の相違値のセットを求めること と、 (d)前記相違値を記憶装置内に記憶すること、とを含む方法。 7.開始グラフィカル画像を目的グラフィカル画像に変形する方法であって、 (a)各頂点が空間位置を有する第1の個数の頂点を含む第1の画像を生成す ることと、 (b)前記第1の個数の頂点に等しい個数の頂点を含む第2の画像を生成する ことと、 (c)前記第1の画像の前記頂点の第1の頂点と前記第2の画像の対応する頂 点との間の差を求めることと、 (d)前記差を記憶装置内に記憶すること、とを含む方法。 8.開始グラフィカル画像を変更する方法であって、 (a)少なくとも前記開始グラフィカル画像の第1の領域を識別することと、 (b)第1の変更データセットと第2の変更データセットとに基づいて前記開 始グラフィカル画像の前記第1の領域を変更すること、とを含む方法。 9.さらに、段階(b)の前に、 (a1)前記第1の変更データセットと前記第2の変更データセットとを加え 合わせることを含む、請求項8記載の方法。 10.通信システムであって、 コンピュータシステムとディスプレイとを含むクライアントと、 少なくともコンピュータシステムを含み、かつ、第1の画像と少なくとも第1 の変更データセットとを前記クライアントに伝送することが可能であるサーバと を含み、 前記サーバが、乗数値が掛け算された前記第1の変更データセッ トに基づいて前記第1の画像が変更されるように、前記乗数値を前記クライアン トに伝送することによって前記第1の画像を変更することが可能である、通信シ ステム。 11.開始グラフィカル画像を変更する方法であって、 (a)複数の特徴を有する開始画像を生成することと、 (b)複数の変更データセットをライブラリの中に記憶することと、 (c)前記ライブラリから第1の変更データセットを読み出すことと、 (d)前記第1の開始画像の第1の特徴が変化させられるように、前記第1の 変更データセットに基づいて前記開始画像を変更すること、とを含む方法。 12.さらに、段階(c)の後に、 (c1)前記第1の変更データセットに乗数値を掛け算することを含み、さら に、ステップ(d)において、前記乗数値を掛け算した前記第1の変更データセ ットに基づいて前記開始画像を変更する、請求項11記載の方法。 13.前記乗数値をグラフィカルスライダーの相対位置によって入力する、請 求項12記載の方法。 14.さらに、前記開始画像の前記特徴の1つに対する各々の変更のために段 階(c)および段階(d)を反復することを含む、請求項11記載の方法。 15.さらに、前記開始画像の前記特徴の1つに対する各々の変更のために段 階(c)、段階(c1)および段階(d)を反復することを含む、請求項12記 載の方法。 16.前記乗数値をグラフィカルスライダーの相対位置によって入力する、請 求項14記載の方法。 17.開始グラフィカル画像を変更する方法であって、 (a)複数の特徴を有する第1の開始画像を生成することと、 (b)複数の変更データセットをライブラリの中に記憶することと、 (c)前記ライブラリから第1の変更データセットと第2の変更データセット を読み出すことと、 (d)前記開始画像の第1の特徴と第2の特徴とが別々に変更されるように、 前記第1の変更データセットと前記第2の変更データセットとに基づいて前記開 始画像を変更すること とを含む方法。 18.さらに、段階(c)の後に、 (c1)前記第1の変更データセットに第1の乗数値を掛け算することと、 (c2)前記第2の変更データセットに第2の乗数値を掛け算すること とを含み、 さらに、段階(d)において、前記第1の乗数値を掛け算した前記第1の変更 データセットと前記第2の乗数値を掛け算した前記第2の変更データセットとに 基づいて前記開始画像を変更する、請求項17記載の方法。 19.前記第1の乗数値と前記第2の乗数値とを第1のグラフィカルスライダ ーの相対位置と第2のグラフィカルスライダーの相対位置とによって別々に入力 する請求項18に記載の方法。 20.さらに、前記開始画像の前記第1の特徴と前記第2の特徴とに対する各 々の変更のために段階(c)、段階(c1)、段階(c2)および段階(d)を 反復することを含む、請求項18記載の方法。 21.さらに、 (e)複数の特徴を有する第2の開始画像を生成することと、 (f)前記ライブラリから前記第1の変更データセットと前記第2の変更デー タセットを読み出すこと (g)前記第2の開始画像の第1の特徴と第2の特徴とが別々に変化させられ るように、前記第1の変更データセットと前記第2の変更データセットとに基づ いて前記第2の開始画像を変更することとを含む、請求項17記載の方法。 22.さらに、段階(f)の後に、 (f1)前記第1の変更データセットに第1の乗数値を掛け算することと、 (f2)前記第2の変更データセットに第2の乗数値を掛け算すること とを含む、請求項21記載の方法。 23.グラフィカル画像を変更する方法であって、 (a)複数の感情を表出可能であるキャラクターの開始画像を生成することと 、 (b)感情表出に関連している変更データセットの各々がそのライブラリ内に 記憶されているライブラリから第1の変更データセットを読み出すことと、 (c)第1の乗数値を前記第1の変更データセットに掛け算することと、 (d)前記第1の乗数値を掛け算した前記第1の変更データセットに基づいて 前記開始グラフィカル画像を変更すること とを含む方法。 24.さらに、 (e)第1の乱数を生成することと、 (f)前記第1の乱数を第1の確率値と比較することと、 (g)段階(f)における前記比較に基づいて前記第1の乗数値のための新た な量を選択することと、 (h)段階(c)と段階(d)を反復すること とを含む、請求項23記載の方法。 25.さらに、 (e)第2の乱数を生成することと、 (f)前記第2の乱数を第2の確率値と比較することと、 (g)段階(f)における前記比較に基づいて第2の変更データセットを選択 することと、 (h)第2の乗数値を前記第2の変更データセットに掛け算することと、 (i)前記第2の乗数値を掛け算した前記第2の変更データセットに基づいて 前記開始画像を変更すること を含む、請求項24記載の方法。 26.さらに、 (i)第2の乱数を生成することと、 (j)前記第2の乱数を第2の確率値と比較することと、 (k)段階(j)における前記比較に基づいて第2の変更データセットを選択 することと、 (l)第2の乗数値を前記第2の変更データセットに掛け算することと、 (m)前記第2の乗数値を掛け算した前記第2の変更データセットに基づいて 前記開始グラフィカル画像を変更すること を含む、請求項24記載の方法。 27.グラフィカル画像を変更する方法であって、 (a)複数の感情を表出可能であるキャラクターの開始グラフィ カル画像を生成することと、 (b)前記開始グラフィカル画像によって表出されるべき第1の感情を定義す るデータ構造を含む、前記グラフィカル画像の近接した位置にある少なくとも第 1のグラフィカルオブジェクトを生成することと、 (c)前記開始グラフィカル画像と前記グラフィカルオブジェクトとの間の関 係を求めることと、 (d)前記第1の感情の表出に関連している第1の変更データセットをライブ ラリから読み出すことと、 (e)前記グラフィカルオブジェクトと前記開始グラフィカル画像との間の前 記関係に基づいて乗数値を生成することと、 (f)前記乗数値を前記第1の変更データセットに掛け算することと、 (g)前記第1の変更データセットに基づいて前記開始グラフィカル画像を変 更すること とを含む方法。 28.前記関係が前記グラフィカルオブジェクトと前記開始グラフィカル画像 との間の距離である、請求項27記載の方法。
JP50505499A 1997-06-25 1998-06-25 2次元および3次元画像の変換制御用の方法および装置 Pending JP2002508867A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/882,721 1997-06-25
US08/882,721 US6147692A (en) 1997-06-25 1997-06-25 Method and apparatus for controlling transformation of two and three-dimensional images
PCT/US1998/013341 WO1998059321A2 (en) 1997-06-25 1998-06-25 Methods and apparatuses for controlling transformation of two and three-dimensional images

Publications (1)

Publication Number Publication Date
JP2002508867A true JP2002508867A (ja) 2002-03-19

Family

ID=25381199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50505499A Pending JP2002508867A (ja) 1997-06-25 1998-06-25 2次元および3次元画像の変換制御用の方法および装置

Country Status (4)

Country Link
US (3) US6147692A (ja)
EP (1) EP1016040A2 (ja)
JP (1) JP2002508867A (ja)
WO (1) WO1998059321A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015713A (ja) * 2006-07-04 2008-01-24 Kyushu Institute Of Technology 動作変形システム及びその方法
JP2010532890A (ja) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド アバターカスタマイズの装置及び方法

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147692A (en) * 1997-06-25 2000-11-14 Haptek, Inc. Method and apparatus for controlling transformation of two and three-dimensional images
US6307576B1 (en) * 1997-10-02 2001-10-23 Maury Rosenfeld Method for automatically animating lip synchronization and facial expression of animated characters
US6459439B1 (en) * 1998-03-09 2002-10-01 Macromedia, Inc. Reshaping of paths without respect to control points
US6362833B2 (en) * 1998-04-08 2002-03-26 Intel Corporation Method and apparatus for progressively constructing a series of morphs between two-dimensional or three-dimensional models
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6366282B1 (en) 1998-09-08 2002-04-02 Intel Corporation Method and apparatus for morphing objects by subdividing and mapping portions of the objects
JP2000182076A (ja) * 1998-12-16 2000-06-30 Sony Corp データ処理装置およびデータ処理方法、並びに提供媒体
US6573889B1 (en) 1999-02-08 2003-06-03 Adobe Systems Incorporated Analytic warping
US10216259B2 (en) * 2000-02-14 2019-02-26 Pierre Bonnat Method and system for processing signals that control a device using human breath
JP4206547B2 (ja) * 1999-02-23 2009-01-14 株式会社セガ 画像処理方法、その画像処理装置及びそれに利用する一体整形モデルデータ及び画像処理プログラムを記録した記録媒体
US6525744B1 (en) * 1999-03-11 2003-02-25 Massachusetts Institute Of Technology Correspondence between n-dimensional surface: vector fields that are defined by surfaces and that generate surfaces which preserve characteristics of the defining surfaces
DE69934478T2 (de) * 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
KR20010003022A (ko) * 1999-06-19 2001-01-15 정선종 시각화된 운항 인터페이스를 제공하기 위한 장치
GB2353451B (en) * 1999-08-20 2003-09-10 Univ London Morphing of an object using the morphological behaviour of another object
US6766299B1 (en) * 1999-12-20 2004-07-20 Thrillionaire Productions, Inc. Speech-controlled animation system
US6847364B1 (en) * 1999-12-23 2005-01-25 Intel Corporation Methods and apparatus for creating three-dimensional motion illusion in a graphics processing system
US6433839B1 (en) * 2000-03-29 2002-08-13 Hourplace, Llc Methods for generating image set or series with imperceptibly different images, systems therefor and applications thereof
US6552733B1 (en) * 2000-04-20 2003-04-22 Ati International, Srl Configurable vertex blending circuit and method therefore
US6943794B2 (en) * 2000-06-13 2005-09-13 Minolta Co., Ltd. Communication system and communication method using animation and server as well as terminal device used therefor
AU2001268702A1 (en) * 2000-06-22 2002-01-02 Auckland Uniservices Limited Non-linear morphing of faces and their dynamics
US7002583B2 (en) * 2000-08-03 2006-02-21 Stono Technologies, Llc Display of images and image transitions
TW517210B (en) * 2000-08-31 2003-01-11 Bextech Inc A method for generating speaking expression variation without distortion in 2D picture using polygon computation
WO2002025595A1 (en) * 2000-09-21 2002-03-28 The Regents Of The University Of California Visual display methods for use in computer-animated speech production models
JP2002133445A (ja) * 2000-10-30 2002-05-10 Namco Ltd 画像処理装置、画像処理方法および情報記憶媒体
US7035803B1 (en) 2000-11-03 2006-04-25 At&T Corp. Method for sending multi-media messages using customizable background images
US6990452B1 (en) 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US7091976B1 (en) 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US20080040227A1 (en) 2000-11-03 2008-02-14 At&T Corp. System and method of marketing using a multi-media communication system
US7203648B1 (en) 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6963839B1 (en) 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US6976082B1 (en) 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
JP2002230543A (ja) 2000-11-28 2002-08-16 Monolith Co Ltd 画像補間方法および装置
JP2002232908A (ja) 2000-11-28 2002-08-16 Monolith Co Ltd 画像補間方法および装置
US6661418B1 (en) * 2001-01-22 2003-12-09 Digital Animations Limited Character animation system
KR20020081661A (ko) * 2001-04-19 2002-10-30 주식회사 오픈비주얼 네트워크 환경에서 3차원 물체의 시각화와 조작을 위한방법 및 장치
US20030107572A1 (en) * 2001-07-02 2003-06-12 Smith Joshua Edward Method and apparatus for reducing the polygon count of a textured, three dimensional model of an object
US20030081849A1 (en) * 2001-07-16 2003-05-01 Smith Joshua Edward Method and system for creating seamless textured three dimensional models of objects
DE10142526C5 (de) * 2001-08-30 2006-02-16 Wella Ag Verfahren für eine Haarfarbberatung
US20030063102A1 (en) * 2001-10-01 2003-04-03 Gilles Rubinstenn Body image enhancement
US20030065255A1 (en) * 2001-10-01 2003-04-03 Daniela Giacchetti Simulation of an aesthetic feature on a facial image
US7634103B2 (en) * 2001-10-01 2009-12-15 L'oreal S.A. Analysis using a three-dimensional facial image
US7671861B1 (en) * 2001-11-02 2010-03-02 At&T Intellectual Property Ii, L.P. Apparatus and method of customizing animated entities for use in a multi-media communication application
US8555164B2 (en) * 2001-11-27 2013-10-08 Ding Huang Method for customizing avatars and heightening online safety
US20030105880A1 (en) * 2001-12-04 2003-06-05 Koninklijke Philips Electronics N.V. Distributed processing, storage, and transmision of multimedia information
CN100559341C (zh) * 2002-04-09 2009-11-11 松下电器产业株式会社 声音提供系统,服务器,客户机,信息提供管理服务器以及声音提供方法
JP2004005265A (ja) * 2002-05-31 2004-01-08 Omron Corp 画像合成方法、画像合成装置、画像合成システム
US20030234871A1 (en) * 2002-06-25 2003-12-25 Squilla John R. Apparatus and method of modifying a portrait image
US20040085259A1 (en) * 2002-11-04 2004-05-06 Mark Tarlton Avatar control using a communication device
US7154510B2 (en) * 2002-11-14 2006-12-26 Eastman Kodak Company System and method for modifying a portrait image in response to a stimulus
US7173623B2 (en) * 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
US7042472B2 (en) * 2004-01-14 2006-05-09 Apple Computer, Inc. Method and apparatus for morphing
US20060009978A1 (en) * 2004-07-02 2006-01-12 The Regents Of The University Of Colorado Methods and systems for synthesis of accurate visible speech via transformation of motion capture data
US7342587B2 (en) * 2004-10-12 2008-03-11 Imvu, Inc. Computer-implemented system and method for home page customization and e-commerce support
US7995064B2 (en) * 2004-10-12 2011-08-09 Imvu, Inc. Computer-implemented chat system having dual channel communications and self-defining product structures
US7912793B1 (en) 2005-01-13 2011-03-22 Imvu, Inc. Computer-implemented method and apparatus to allocate revenue from a derived avatar component
US20060132482A1 (en) * 2004-11-12 2006-06-22 Oh Byong M Method for inter-scene transitions
US20060127852A1 (en) * 2004-12-14 2006-06-15 Huafeng Wen Image based orthodontic treatment viewing system
US7650266B2 (en) * 2005-05-09 2010-01-19 Nvidia Corporation Method of simulating deformable object using geometrically motivated model
JP2007156650A (ja) * 2005-12-01 2007-06-21 Sony Corp 画像処理装置
US8047915B2 (en) 2006-01-11 2011-11-01 Lyle Corporate Development, Inc. Character for computer game and method
WO2007092629A2 (en) * 2006-02-09 2007-08-16 Nms Communications Corporation Smooth morphing between personal video calling avatars
US8043209B2 (en) * 2006-06-13 2011-10-25 Given Imaging Ltd. System and method for transmitting the content of memory storage in an in-vivo sensing device
US20080084416A1 (en) * 2006-10-06 2008-04-10 Microsoft Corporation User-pluggable rendering engine
KR100940862B1 (ko) * 2007-12-17 2010-02-09 한국전자통신연구원 3차원 얼굴 애니메이션을 위한 헤드 모션 추적 방법
EP2425397A4 (en) * 2009-04-27 2015-07-01 Blackberry Ltd CONVERSION OF MORPHOLOGICAL SHAPE DEFINITIONS SWF FOR A VECTOR GRAPHIC RENDER
US8810578B2 (en) * 2009-04-27 2014-08-19 Blackberry Limited Conversion of SWF shape definitions for vector graphics rendering
US8698747B1 (en) 2009-10-12 2014-04-15 Mattel, Inc. Hand-activated controller
US20130088513A1 (en) * 2011-10-10 2013-04-11 Arcsoft Inc. Fun Videos and Fun Photos
US8977978B2 (en) * 2011-12-12 2015-03-10 Inkling Systems, Inc. Outline view
US20150113453A1 (en) * 2013-10-18 2015-04-23 Apple Inc. Methods and devices for simplified graphical object editing
US10207405B2 (en) * 2014-03-31 2019-02-19 Christopher Deane Shaw Methods for spontaneously generating behavior in two and three-dimensional images and mechanical robots, and of linking this behavior to that of human users
JP6476608B2 (ja) * 2014-06-30 2019-03-06 カシオ計算機株式会社 動作処理装置、動作処理方法及びプログラム
US20180276870A1 (en) * 2017-03-24 2018-09-27 Mz Ip Holdings, Llc System and method for mass-animating characters in animated sequences
US10499042B2 (en) 2017-04-01 2019-12-03 Intel Corporation Barreling and compositing of images
US10726609B2 (en) * 2017-11-22 2020-07-28 Pure Depth Limited Perspective distortion in multi-display system
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
CA3128047A1 (en) * 2019-01-25 2020-07-30 Soul Machines Limited Real-time generation of speech animation
EP4186032A4 (en) 2020-07-24 2024-02-07 O3 Story Tech Inc SYSTEMS AND METHODS FOR COMPUTER ANIMATION USING A MACHINE TO DEFORM A SEQUENCE OF OPERATIONS
US20230143019A1 (en) * 2021-11-10 2023-05-11 Evr Studio Co., Ltd. Method of generating facial expression and three-dimensional (3d) graphic interface device using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659625A (en) * 1992-06-04 1997-08-19 Marquardt; Stephen R. Method and apparatus for analyzing facial configurations and components
US5611037A (en) * 1994-03-22 1997-03-11 Casio Computer Co., Ltd. Method and apparatus for generating image
US6147692A (en) * 1997-06-25 2000-11-14 Haptek, Inc. Method and apparatus for controlling transformation of two and three-dimensional images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015713A (ja) * 2006-07-04 2008-01-24 Kyushu Institute Of Technology 動作変形システム及びその方法
JP2010532890A (ja) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド アバターカスタマイズの装置及び方法

Also Published As

Publication number Publication date
US6320583B1 (en) 2001-11-20
WO1998059321A2 (en) 1998-12-30
US6147692A (en) 2000-11-14
WO1998059321A3 (en) 1999-03-25
US20030001834A1 (en) 2003-01-02
EP1016040A2 (en) 2000-07-05

Similar Documents

Publication Publication Date Title
JP2002508867A (ja) 2次元および3次元画像の変換制御用の方法および装置
CA2239402C (en) Method for generating photo-realistic animated characters
US20220284654A1 (en) Photorealistic real-time portrait animation
US7515155B2 (en) Statistical dynamic modeling method and apparatus
US6967658B2 (en) Non-linear morphing of faces and their dynamics
US7307633B2 (en) Statistical dynamic collisions method and apparatus utilizing skin collision points to create a skin collision response
US6097396A (en) Method and apparatus for creating lifelike digital representation of hair and other fine-grained images
US20050212800A1 (en) Volumetric hair simulation
CN113228163A (zh) 基于文本和音频的实时面部再现
JP2011159329A (ja) 自動3dモデリングシステム及び方法
Johnson Towards enhanced visual clarity of sign language avatars through recreation of fine facial detail
US7477253B2 (en) Storage medium storing animation image generating program
US8228335B1 (en) Snapsheet animation visualization
KR100792704B1 (ko) 와이어 곡선과 예제 표정 모델에 기반한 3차원 얼굴애니메이션의 재적용 방법
US20190340806A1 (en) Noise reduction on g-buffers for monte carlo filtering
US8077183B1 (en) Stepmode animation visualization
US11941739B1 (en) Object deformation network system and method
Bibliowicz An automated rigging system for facial animation
EP1177528A1 (en) Method and apparatus to control responsive action by a computer-generated character
Di Fiore et al. Mimicing 3d transformations of emotional stylised animation with minimal 2d input
Wei et al. A Comparative Study of Four 3D Facial Animation Methods: Skeleton, Blendshape, Audio-Driven, and Vision-Based Capture
Karunaratne et al. A new efficient expression generation and automatic cloning method for multimedia actors
King Animating speech in games
WO2004104934A1 (en) Statistical dynamic collisions method and apparatus
Kalberer et al. Visual speech, a trajectory in viseme space