JP2002175541A - アニメーション生成方法および装置 - Google Patents

アニメーション生成方法および装置

Info

Publication number
JP2002175541A
JP2002175541A JP2000372834A JP2000372834A JP2002175541A JP 2002175541 A JP2002175541 A JP 2002175541A JP 2000372834 A JP2000372834 A JP 2000372834A JP 2000372834 A JP2000372834 A JP 2000372834A JP 2002175541 A JP2002175541 A JP 2002175541A
Authority
JP
Japan
Prior art keywords
animation
display target
predetermined display
motions
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000372834A
Other languages
English (en)
Inventor
Yasunori Oto
康紀 大戸
Yuichi Ueda
裕一 上田
Takashi Nozaki
隆志 野崎
Yoichiro Onoda
陽一郎 斧田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000372834A priority Critical patent/JP2002175541A/ja
Priority to US10/014,152 priority patent/US6798414B2/en
Publication of JP2002175541A publication Critical patent/JP2002175541A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 複数の表示対象を協調的に表示するアニメー
ションを効率よく生成する。 【解決手段】 基底アニメーション記憶部15は、所定
のモーションに対し適応領域の格子点ごとに生成された
基底アニメーションを記憶している。合成部13は、エ
ンドエフェクタが適応領域内にあるときに適応モーショ
ン合成を開始する。合成部13は、目的物の位置と各格
子点の位置とに基づいて重み配列を計算し、これを線形
加算の係数として基底アニメーションを加算して目的に
アニメーションを生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、2次元あるいは3
次元形状のアニメーションを生成する技術に関し、とく
に、他のアニメーションとの強調動作を実現する技術に
関する。この技術は、アニメーション作成や生成、ゲー
ムや映像コンテンツなどで、幅広く利用される。
【0002】
【従来の技術】従来は、インタラクティブなアニメーシ
ョンを行う場合、リアルタイム・インバースキネマティ
クスを用いて、そのアニメーションを随時計算して求め
ていた。あるいは、そのアニメーションで起こり得るあ
らゆるパターンを想定して、すべてのアニメーションを
用意していた。
【0003】
【発明が解決する課題】インバースキネマティクスを利
用したインタラクティブなアニメーション生成において
は、その計算コストが大きく、また多重解を持つことが
度々であり、望んだ結果を得ることは困難だった。ま
た、計算コストを考慮して、予め起こり得るパターンを
求めようとした場合、これを想定することは難しく、す
べてを予測することは不可能であり、また想定し得たと
しても、このとき作成するアニメーションは膨大なもの
になり得る。
【0004】本発明は、以上の事情を考慮してなされた
ものであり、少ない計算コストで他のアニメーションと
強調動作を行えるアニメーション生成技術を提供するこ
とを目的としている。
【0005】
【課題を解決するための手段】本発明によれば、上述の
目的を達成するために、特許請求の範囲に記載のとおり
の構成を採用している。ここでは特許請求の範囲の記載
について補充的に説明を加える。
【0006】ます、本発明の原理的な説明を行う。本発
明の一例では、始めにアニメーション中のインタラクテ
ィビティが必要な部分を想定し、その部分におけるアニ
メーション間の協調関係を想定する。つぎに、協調関係
を満たすアニメーションをインバースキネマティクスに
よって作成し、これを基底アニメーションとする。最後
に、実行時において対象となるアニメーションの変化に
応じて、複数の基底アニメーションを合成することによ
って、適応モーションを生成する。
【0007】本発明によって、実行時のアニメーション
生成を行うときに、他のアニメーションとの強調動作を
実現することができる。また、リアルタイム・インバー
スキネマティクスを用いて行う手法より計算量を少なく
することができ、さらに、おかしな動きを引き起こして
しまうことを未然に防ぐことが可能となる。
【0008】インバースキネマティクスの計算では、エ
ンドエフェクタの位置を与えることによって複数の関節
角の値を求める必要があり、多項式の連立方程式を解く
必要がある。また、連立方程式の解を求めるための十分
な式が立たないことから、複数の関節角のセットが求ま
ることがある。リアルタイムでこの計算を行っている場
合、適切な解を選択することができず、結果として、お
かしな行動が起こることを除去することが困難となる。
【0009】これに対して、本発明では、予め計算して
おいたアニメーションから、重み付け加算程度の計算量
によって、適切なエンドエフェクタの位置を満たす関節
角のセットを求めることができる。また、この計算に用
いる基底アニメーションは予め計算しておくため、この
時点で適正な関節角のセットを選択することができる。
また、インバースキネマティクスによって得られたアニ
メーションを適宜、編集しておくことが可能である。ま
た、エンドエフェクタの位置と生成されるアニメーショ
ンとの関係が明確であることから、おかしな動きを未然
に防ぐことができる。
【0010】さらに、本発明を説明する。本発明によれ
ば、上述の目的を達成するために、所定の表示対象のア
ニメーションを別の表示対象のアニメーションと協調さ
せて生成するアニメーション生成方法において、前記別
の表示対象のアニメーションとの複数の関係にそれぞれ
応じた前記所定の表示対象の複数のモーションのアニメ
ーションを記憶するステップと、前記別の表示対象のア
ニメーションとの現在の関係に基づいて前記複数のモー
ションのアニメーションを用いて前記現在の関係に対応
するモーションのアニメーションを合成するステップと
を実行するようにしている。
【0011】この構成においては、予め、所定の表示対
象と別の表示対象との間の代表的な関係ごとに所定の表
示対象のアニメーションを用意しておき、これを合成し
て現在の関係に合致した新たなアニメーションを簡易に
生成できる。
【0012】この構成において、合成するアニメーショ
ンは所定の表示対象の一部の部位に対応する部分アニメ
ーションとすることができる。
【0013】所定の所定の表示対象と別の表示対象との
関係は、例えば、所定の表示対象と連動して移動する所
定の空間領域における別の表示対象の位置である。例え
ば、所定の表示対象のエンドエフェクタが、所定の空間
領域の代表的な点に位置する別の表示対象まで移動する
際のアニメーションを複数用意しておき、所定の空間領
域の任意の点に別の表示対象が位置する場合のアニメー
ションを、これら複数のアニメーションから合成するこ
とができる。
【0014】なお、本発明は方法としても装置としても
実現可能である。また、そのような方法をコンピュータ
で実現するために用いるプログラムを記録したコンピュ
ータ読取り可能な記録媒体も本発明の技術的な範囲に含
まれる。
【0015】
【発明の実施の形態】以下、本発明の実施例について説
明する。この実施例では、キャラクター(アクター)が
目的物(例えばグラス)に触れるモーションのアニメー
ションを実行時に適応的に生成する。このようなモーシ
ョンを実行時適応モーションと呼ぶ。以下では、実行時
適応モーションを生成するための装置を説明した後に、
物をつかむアニメーションを例として、物の位置に適応
したアニメーションの生成方法について説明を行う。こ
の例では、机の上のグラスを手に取るアニメーション
(図5)と、キャラクターに対してグラスの位置が異な
るときのアニメーション(図6)とを自動的に生成する
方法について説明する。
【0016】図1は、本発明の実施例のアニメーション
生成装置を全体として示しており、この図において、ア
ニメーション生成装置1は、アニメーション生成部(ア
プリケーション)10、アニメーション表示部(アプリ
ケーション)20、オペレーティングシステム30、入
力装置40、出力装置50、その他のリソース(ハード
ウェア、ソフトウェア)等を含んで構成されている。ア
ニメーション生成装置1は、実際には、ゲーム機、パー
ソナルコンピュータ等に実装される。アニメーション編
集装置として構成してもよい。オペレーティングシステ
ム30は、実装環境に応じたものであり、パーソナルコ
ンピュータ用の汎用のオペレーティングシステムでもよ
いし、機器独自の組み込みオペレーティングシステムで
もよい。アニメーション生成部10は、複数のモデルの
アニメーションを相互に協調させて生成するものであ
る。アニメーション表示部20は、アニメーションのデ
ータを受けとって画像データを生成し、出力装置(ディ
スプレイ)50に画像データを出力する。アニメーショ
ン表示部20は、例えば、アニメーション生成部10等
から骨格データを受けとってポリゴンデータを生成し、
さらにレンダリング処理を行う。図示しないが、レンダ
リング処理等は、専用のハードウェアを用いてもよい。
【0017】図2は、図1のアニメーション生成部10
の構成を模式的に示しており、この図において、アニメ
ーション生成部10は、イベント処理部11、アニメー
ション生成制御部12、合成部13、通常アニメーショ
ン記憶部14、基底アニメーション記憶部15、基底ア
ニメーション生成部16等を含んでいる。イベント処理
部11は入力装置40から入力されたイベント情報(キ
ー入力、コントローラの操作)をアニメーション生成制
御部12にリダイレクトする。アニメーション生成制御
部12は所定のアニメーション進行情報に基づいてアニ
メーションの開始要求や、基底アニメーションの合成要
求を合成部13に供給する。通常アニメーション記憶部
14は、協調動作を配慮する必要がない通常のアニメー
ションを記憶している。基底アニメーション記憶部15
は、強調動作を配慮する必要があるアニメーションを合
成するための基底アニメーションを記憶している。基底
アニメーションの詳細については後に詳述する。基底ア
ニメーション生成部16は基底アニメーションを例えば
インバースキネマティクスにより事前に生成する。合成
部13は、アニメーションの開始要求や合成要求に応じ
て、通常アニメーション記憶部14からアニメーション
データを取り出しアニメーション表示部20に供給し、
また、基底アニメーション記憶部15から基底アニメー
ションを取り出して合成演算を行い、新たなアニメーシ
ョンのデータを生成してアニメーション表示部20に供
給する。アニメーション表示部20は、アニメーション
データに基づいて画像データを生成して出力装置50に
出力する。
【0018】図3は、図2のアニメーション生成部10
の動作、とくに、基底アニメーションから新たなアニメ
ーションを合成する手順を示しており、図4は、図3の
重み計算ステップの詳細を示している。
【0019】ここでは図3および図4の動作を説明する
前に、アニメーションのエンドエフェクタ、基底アニメ
ーション等を説明しておく。
【0020】図8は、キャラクターが持つ固定点を基準
としたローカル座標系に対して、手の先をエンドエフェ
クタとした時の、適応領域(図7)との関係を示す。こ
の例では、グラスがこの適応領域内にあるとき、これが
エンドエフェクタの目的地となり、キャラクターの動き
が自動的に、あるいは所定の条件のもと生成される。ま
た、ここで定義される適応領域はローカル座標系として
記述されるため、グラスが移動する場合や、キャラクタ
ーが移動している場合にも適応することができる。
【0021】図9に、適応空間として直方体を考えたと
きの、適応モーションを生成するための基底となるアニ
メーションを生成することについて示している。ここ
で、A〜Hの各頂点に対して、インバースキネマティク
スを用いて、アニメーションを作成している。これは、
図10に示すように、アニメーションを編集することが
できるため、インバースキネマティクスによって多重解
が生成されるときのチェックや、適当な調整を加えるこ
とができる。図11に示すように、このアニメーション
を重み付け加算することによって、適応モーションを生
成する。また、(a)では各規定アニメーションが指定
されている点(A−H)と、エンドエフェクタの位置と
してpが指定されたときの、空間的関係を示している。
(b)は、この演算方法を示しており、重み付け配列と
して(a,,....h)を、適宜、変更させることに
よって、適応領域内でのアニメーション生成を行ってい
ることを示している。
【0022】図5は、アニメーションの全体の動きを時
系列に沿って示しており、まず、キャラクターが机の前
の位置する(a)。このとき、机の上にはグラスが配置
されている。キャラクターはこのグラスをつかみ、所定
の高さ位置まで持ち上げることを予定している。つぎに
キャラクターはグラスまで手を伸ばしてつかみ、その後
グラスを徐々に持ち上げる(b)。(c)は所定の高さ
位置までグラスを持ち上げた状態を示す。
【0023】図6は、グラスを図5の位置(薄い実線で
示す)から少しずらした際のモーション(濃い実線)を
示している。この図から明らかなように、グラスの位置
に応じてモーションが薄い実線から濃い実線で示すよう
に変化する。このように目的物(グラス)の位置に応じ
てモーションが適応的に変化する。
【0024】図7は、キャラクターと適応領域との関係
を示している。適応領域はキャラクターと連動して移動
する。そして、キャラクターが机(グラス)に近づき、
その結果、グラスが適応領域内に入ったときに適応的な
アニメーション生成が可能になる。
【0025】図8は、適応領域とキャラクターの関係を
示しており、適応領域はキャラクターのローカル座標で
記述される。適応領域は、例えば立方体である。この適
応領域に目的物(グラス)が位置すると、これに向かっ
てエンドエフェクタが移動する。
【0026】図9は基底アニメーションを示している。
この例では、適応領域の格子点(A〜H)の各点にエン
ドエフェクタが向かっていくモーションのアニメーショ
ンをそれぞれ用意する。これらを基底アニメーションと
呼ぶ。もちろん、適応領域の他の候補点との関係で基底
アニメーションを用意してもよい。この例では、固定点
(図8)を中心として腕、手の部分の部分アニメーショ
ンを基底アニメーションとして複数用意する。これら基
底アニメーションは事前にインバースキネマティクス等
の手法により生成しておく。また図10に示すように基
底アニメーションを編集してより自然なものにしてもよ
い。なお、基底アニメーションはユーザとのインターラ
クションを行う間に必要に応じて生成してもよいし、予
め必要と考えられる基底アニメーションをアニメーショ
ン生成開始に先だって作成して記憶しておいてもよい。
【0027】図11は、基底アニメーションの合成の態
様を示している。この例では、エンドエフェクタは位置
pまで移動する(a)。この場合、(b)に示すよう
に、基底アニメーションを所定の係数で線形加算して目
的のアニメーション(腕および手の部分アニメーショ
ン)を生成する。線形加算による合成する手法は、周知
の手法を採用できる。例えば、特開平2000−111
99号公報「アニメーションの自動生成方法」を採用し
てもよい。
【0028】図12は、重み係数の配列(a,b,c,
d,e,f,g,h)の決定方法を示している。なお、
適応領域の辺の長さは1に正規化してある。この決定方
法によれば、係数aは、位置pの座標(x,y,z)と
して、x×y×zとなる。係数bは、x×(1−y)×
zとなる。他の係数も同様に求められる。これら係数を
図11(b)の式に代入して目的のアニメーションを生
成できる。
【0029】図13はシーングラフの変化を示す。当初
は(a)に示すように、地面を基点として机、グラスの
サブグラフと、地面を基点として手までのサブグラフ
(キャラクターの他の部位については点線で示すように
省略した)とがパラレルに記述される。この後、手でグ
ラスをつかみ終わると(基底アニメーションを合成した
アニメーションが終了すると)、グラスは机のノードに
接続されるのでなく、手のノードに接続されるようにな
る。この結果、以降手の動きに応じてグラスが自然に移
動することになる。地面を足がかりとして座標変換を計
算することによって、この前後における目的物(グラ
ス)の位置変化をなくしている。
【0030】以下、以上の基底アニメーションを用いて
新たなアニメーションを生成する動作を図3および図4
を参照して説明する。
【0031】図3の動作は以下のように行われる。 [ステップS10]:適応領域を出たことを示すイベン
トeventLeaveAreaをリセットする(初期
化する)。 [ステップS11]:エンドエフェクタが適応領域内に
あるかどうかを判別する。エンドエフェクタが適応領域
内にある場合にはステップS12に進み、ない場合には
処理を終了する。 [ステップS12]:基底アニメーションの合成を開始
する。開始に必要な処理を行った後、ステップS13へ
進む。 [ステップS13]:エンドエフェクタが適応領域外に
移動した場合にはステップS15に進み合成処理を中止
する。エンドエフェクタが適応領域に残っている場合に
は、現在時刻の基底アニメーションのデータを取り出し
て合成し現在のアニメーションを表示する。この後、ス
テップS14へ進む。 [ステップS14]:合成アニメーションが終了したが
どうかを判別し(eventEndMotionを用い
る)、合成アニメーションが終了した場合には処理を終
了する。終了していない場合には、時刻をインクリメン
トしてステップS13へ戻る。 [ステップS15]:合成処理を中止し、処理を終了す
る。
【0032】以上の処理により基底アニメーションが合
成されて目的のアニメーションが生成・表示される。こ
の処理は合成アニメーションが終了するまで、あるいは
エンドエフェクタが適応領域から外れるまで繰り返し実
行される。
【0033】図4は、基底アニメーションを合成して表
示する処理(ステップS13)を示しており、この処理
は以下のとおりである。 [ステップS20]:エンドエフェクタが適応領域内か
どうか判別する。適応領域内であればステップS21へ
進む。適応領域外であればステップS22へ進む。 [ステップS21]:重み付け配列を計算する。 [ステップS22]:重み付け配列を用いて基底アニメ
ーションを合成して目的のアニメーションデータを生成
する。 [ステップS23]:目的のアニメーションデータを用
いて現在のアニメーションを表示する。T(真値)を返
して処理を終了する。 [ステップS24]:eventLeaveをセットし
て処理を終了する。
【0034】つぎに、上述実施例の変形例について説明
する。この変形例では、図12を参照して説明した、重
み配列の計算方法(点Pを与えたときのモーションA〜
Fまでの重み配分を計算している部分)を修正する。
【0035】与えられたモーションにおけるエンドエフ
ェクタの位置から、その間に位置するエンドエフェクタ
位置を満たすモーションの重み配列を求めるとき、単純
に重み配列を内分してモーションを行った場合、期待し
たエンドエフェクタの位置を得ることができないことが
ある。この様子を図15に示す。図15(a)におい
て、腕が二関節で表されている場合、に示す部分がエ
ンドエフェクタとなり、で示す部分がひじ関節、で
示す部分が固定点となる。そして、図15(b)におい
て、およびがエンドエフェクタの位置となるような
モーションについて、およびからの内分点を単純に
求めたとき、目的となるエンドエフェクタの位置がで
あるにも関わらず、を示してしまうことになる。
【0036】このことから、図16に示すように、空間
座標に対して、で示すモーションの重み配列を対応
づけする。この対応づけには自己組織化マップを用い
ることができる。ここで、自己組織化マップの詳細につ
いては、適宜、T.コホネン著,徳高平蔵/岸田悟/藤村
喜久郎訳、「自己組織化マップ SELF-ORGANIZING MAP
S」、シュプリンガー・フェアラーク東京を参照された
い。
【0037】また、総ての空間点に対するマッピングを
行うことは実際的ではないため、エンドエフェクタの位
置と実際に得られる位置との許容誤差より少なくなるよ
うな重み配列を求める方法を示す。
【0038】図17に処理の流れを示す。予め与えられ
たサンプル点から、その中間点を求める(S30)。もと
になったサンプル点にマッピングされている重み配列か
ら、中間点での重み配列を計算する(S31)。このと
き、第一近似として平均値が指定されたものとする。次
に、サンプル点におけるモーションとして指定された各
関節角と重み配列から、フォワードキネマティクスによ
って計算することによって、エンドエフェクタの位置を
計算する(S32)。なお、フォワードキネマティクスと
は、関節間の関係を順方向に作用させていく方法であ
り、例えば図15のから、へ関節角の変化分を作
用させていくことによって、エンドエフェクタの位置を
求める手法を示す。
【0039】ここで求められたエンドエフェクタ位置と
目標となる座標とのずれを求め(S33)、ずれが指定さ
れた誤差範囲より大きい場合(S34)、重み配列を少し
変化させて、再びエンドエフェクタの位置を計算する場
所へ戻る(S35)。
【0040】一方、ずれが許容範囲内だった場合(S3
4)、重み配列が初期状態から変化しているときにはこ
の中間点をサンプル点の集合に加える(S36、S3
7)。サンプル点集合において、計算されていない中間
点が存在する場合(S38)、中間地の指定(S30)へ戻
る。総ての中間点が無くなった時点で処理を終了する。
【0041】これによって、任意の空間位置に対するサ
ンプルの重み配列が許容誤差内で得られるようなマッピ
ングを行うことができたことになる。
【0042】この様子を図18に示す。図18において
p1〜p4は最初に与えられていたサンプル点を示す。
ここから、p5の中間値を求め、修正した重み配列を得
る。重み配列が変化しているため、サンプル点集合に追
加されるため、新たに中間点としてp6〜p9が発生す
る。図18では、p6、p7、p9において、重み配列
の修正を受けなかった状態を示している。このため、こ
の3点についてはサンプル点集合に追加されていない。
これに対して、p8がサンプル点として追加され、中間
値として、p10、p11、p12が発生し、p11、
p12の重み配列がが修正されている。この処理を中間
値が発生しなくなるまで繰り返すことになる。
【0043】次に、図19に示すように、座標点が与
えられたとき、これを含む領域を構成するサンプル点、
〜から、重み配列を補間によって求める。
【0044】以上で変形例の説明を終了する。
【0045】なお、本発明は上述の実施例に限定される
ものではなく種々変更が可能である。例えば、上述の例
ではエンドエフェクタとして手を規定したが、その他任
意の部位をエンドエフェクタに規定できる。図14では
腰をエンドエフェクタに規定して台座に腰掛ける動作を
示している。
【0046】また、適応領域内にエンドエフェクタがあ
るときにその格子点の基底アニメーションを用いてアニ
メーションを合成したが、基底アニメーションを構成す
る候補点は、適応領域の任意の点に設定可能である。ま
た、適応領域の外部に設定してもよい。すなわち、実行
時抵抗モーションを生成する条件を規定する適応領域と
ある程度無関係に、基底アニメーションに対応する候補
点を採用してもよい。
【0047】
【発明の効果】以上説明したように、本発明によれば、
始めにアニメーション中のインタラクティビティが必要
な部分を想定し、その部分におけるアニメーション間の
協調関係を規定することで、実時間アニメーション生成
において、他のアニメーションとの強調動作を実現でき
る。さらに、本発明を使用することで、リアルタイム・
インバースキネマティクスを用いる方法より計算量を少
なくすることができ、またおかしな動きを引き起こすこ
とも減少させることができる。これにより、アニメーシ
ョン制作の効率を現在よりも飛躍的に上げることが可能
になる。
【図面の簡単な説明】
【図1】 本発明の実施例を全体として示すシステム図
である。
【図2】 図1のアニメーション生成部10の構成例
を模式的に示すブロック図である。
【図3】 図1の実施例の動作を説明するフローチャー
トである。
【図4】 図3の一部の手順を説明するフローチャート
である。
【図5】 上述実施例が適用されるアニメーションを説
明する図である。
【図6】 上述実施例が適用される他のアニメーション
を説明する図である。
【図7】 上述実施例の適応領域を説明する図である。
【図8】 上述実施例の適応領域を説明する図である。
【図9】 上述実施例の基底アニメーションを説明する
図である。
【図10】 上述実施例の基底アニメーションの編集を
説明する図である。
【図11】 上述実施例の基底アニメーションからの合
成処理を説明する図である。
【図12】 上述実施例の合成処理の係数を算出する手
法を説明する図である。
【図13】 上述実施例のシーングラフの遷移を説明す
る図である。
【図14】 上述実施例をキャラクターが椅子に腰掛け
る動作に適用した例を説明する図である。
【図15】 上述実施例の変形例が解決する問題点を説
明する図である。
【図16】 上述変形例の構成を説明する図である。
【図17】 上述変形例の動作を説明するフローチャー
トである。
【図18】 上述変形例の動作を説明する図である。
【図19】 上述変形例の動作を説明する図である。
【符号の説明】
1 アニメーション生成装置 10 アニメーション生成部 11 イベント処理部 12 アニメーション生成制御部 13 合成部 14 通常アニメーション記憶部 15 基底アニメーション記憶部 16 基底アニメーション生成部 20 アニメーション表示部 30 オペレーティングシステム 40 入力装置 50 出力装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 野崎 隆志 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 (72)発明者 斧田 陽一郎 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 2C001 BA00 BA02 BA05 BC00 BC01 BC03 BC05 CB01 CC02 5B050 BA06 BA08 EA19 EA24 FA02 FA19

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 所定の表示対象のアニメーションを別の
    表示対象のアニメーションと協調させて生成するアニメ
    ーション生成方法において、 前記別の表示対象のアニメーションとの複数の関係にそ
    れぞれ応じた前記所定の表示対象の複数のモーションの
    アニメーションを記憶するステップと、 前記別の表示対象との現在の関係に基づいて前記複数の
    モーションのアニメーションを用いて前記現在の関係に
    対応するモーションのアニメーションを合成するステッ
    プとを有することを特徴とするアニメーション生成方
    法。
  2. 【請求項2】 前記所定の表示対象の複数のモーション
    のアニメーションは、前記別の表示対象のアニメーショ
    ンとの複数の関係にそれぞれ対応して実行時に取り得る
    アニメーションであり、前記複数の関係に基づいて予め
    計算されている請求項1記載のアニメーション生成方
    法。
  3. 【請求項3】 前記予め計算されているアニメーション
    を、自由に再設定あるいは調整することが可能である請
    求項2記載のアニメーション生成方法。
  4. 【請求項4】 前記予め計算されているアニメーション
    はエンドエフェクタを有し、前記エンドエフェクタを前
    記別の表示対象のアニメーションに対して動的に変化す
    る目標として用いる請求項2記載のアニメーション生成
    方法。
  5. 【請求項5】 前記予め計算されているアニメーション
    は、インバースキネマティクスを用いて計算される、も
    しくは、キーフレームアニメーションとして作成される
    請求項4記載のアニメーション生成方法。
  6. 【請求項6】 前記インバースキネマティクスの計算
    は、ユーザーとのインタラクションを行っているときに
    実行する請求項5記載のアニメーション生成方法。
  7. 【請求項7】 前記別の表示対象のアニメーションとの
    関係に応じて、モデルのシーングラフを動的に変化させ
    る請求項1記載のアニメーション生成方法。
  8. 【請求項8】 前記所定の表示対象の複数のモーション
    のアニメーションは一部の部位についてのアニメーショ
    ンである請求項1記載のアニメーション生成方法。
  9. 【請求項9】 所定の表示対象のアニメーションを別の
    表示対象のアニメーションと協調させて生成するアニメ
    ーション生成方法において、 前記所定の表示対象のアニメーションと連動する所定の
    空間領域内の複数の候補点まで前記所定の表示対象のエ
    ンドエフェクタがそれぞれ移動する際の前記所定の表示
    対象の複数のモーションのアニメーションを記憶するス
    テップと、 前記別の表示対象に前記所定の表示対象のエンドエフェ
    クタが移動するアニメーションを、前記所定の表示対象
    の複数のモーションのアニメーションから合成するステ
    ップとを有することを特徴とするアニメーション生成方
    法。
  10. 【請求項10】 所定の表示対象のアニメーションを別
    の表示対象のアニメーションと協調させて生成するアニ
    メーション生成方法において、 前記所定の表示対象のアニメーションと連動する所定の
    空間領域内の複数の候補点まで前記所定の表示対象のエ
    ンドエフェクタがそれぞれ移動する際の前記所定の表示
    対象の複数のモーションのアニメーションを記憶するス
    テップと、 前記別の表示対象が前記所定の空間領域内にあるとき
    に、前記別の表示対象に前記所定の表示対象のエンドエ
    フェクタが移動するアニメーションを、前記所定の表示
    対象の複数のモーションのアニメーションから合成する
    ステップとを有することを特徴とするアニメーション生
    成方法。
  11. 【請求項11】 前記別の表示対象の前記所定の空間領
    域内の位置と上記複数の候補点との間の距離に基づい
    て、前記別の表示対象に前記所定の表示対象のエンドエ
    フェクタが移動するアニメーションを、前記所定の表示
    対象の複数のモーションのアニメーションから合成する
    請求項10記載のアニメーション生成方法。
  12. 【請求項12】 所定の表示対象のアニメーションを別
    の表示対象のアニメーションと協調させて生成するアニ
    メーション生成装置において、 前記別の表示対象のアニメーションとの複数の関係にそ
    れぞれ応じた前記所定の表示対象の複数のモーションの
    アニメーションを記憶する手段と、 前記別の表示対象のアニメーションとの現在の関係に基
    づいて前記所定の表示対象の複数のモーションのアニメ
    ーションを用いて前記現在の関係に対応するモーション
    のアニメーションを合成する手段とを有することを特徴
    とするアニメーション生成装置。
  13. 【請求項13】 所定の表示対象のアニメーションを別
    の表示対象のアニメーションと協調させて生成するのに
    用いるコンピュータ読取り可能な記録媒体において、 前記別の表示対象のアニメーションとの複数の関係にそ
    れぞれ応じた前記所定の表示対象の複数のモーションの
    アニメーションを記憶するステップと、 前記別の表示対象との現在の関係に基づいて前記複数の
    モーションのアニメーションを用いて前記現在の関係に
    対応するモーションのアニメーションを合成するステッ
    プとをコンピュータに実行させるために用いるコンピュ
    ータプログラムを記録したコンピュータ読取り可能な記
    録媒体。
JP2000372834A 2000-12-07 2000-12-07 アニメーション生成方法および装置 Pending JP2002175541A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000372834A JP2002175541A (ja) 2000-12-07 2000-12-07 アニメーション生成方法および装置
US10/014,152 US6798414B2 (en) 2000-12-07 2001-12-07 Animation generation method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000372834A JP2002175541A (ja) 2000-12-07 2000-12-07 アニメーション生成方法および装置

Publications (1)

Publication Number Publication Date
JP2002175541A true JP2002175541A (ja) 2002-06-21

Family

ID=18842313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000372834A Pending JP2002175541A (ja) 2000-12-07 2000-12-07 アニメーション生成方法および装置

Country Status (2)

Country Link
US (1) US6798414B2 (ja)
JP (1) JP2002175541A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050168485A1 (en) * 2004-01-29 2005-08-04 Nattress Thomas G. System for combining a sequence of images with computer-generated 3D graphics
US8648864B2 (en) * 2008-02-05 2014-02-11 Disney Enterprises, Inc. System and method for blended animation enabling an animated character to aim at any arbitrary point in a virtual space
US8683429B2 (en) 2008-08-25 2014-03-25 Adobe Systems Incorporated Systems and methods for runtime control of hierarchical objects
US20130162655A1 (en) * 2008-08-25 2013-06-27 Adobe Systems Incorporated Systems and Methods for Creating, Displaying, and Using Hierarchical Objects with Nested Components
CN111275799B (zh) * 2020-01-20 2021-03-23 北京字节跳动网络技术有限公司 动画的生成方法、装置和电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852450A (en) * 1996-07-11 1998-12-22 Lamb & Company, Inc. Method and apparatus for processing captured motion data
JP2000011199A (ja) 1998-06-18 2000-01-14 Sony Corp アニメーションの自動生成方法
JP3380231B2 (ja) * 1998-12-28 2003-02-24 富士通株式会社 3次元スケルトンデータ圧縮装置

Also Published As

Publication number Publication date
US20020089507A1 (en) 2002-07-11
US6798414B2 (en) 2004-09-28

Similar Documents

Publication Publication Date Title
US7057619B2 (en) Methods and system for general skinning via hardware accelerators
Rose III et al. Artist‐directed inverse‐kinematics using radial basis function interpolation
US7639261B2 (en) Texture mapping apparatus, method and program
US9256973B2 (en) Controlling animated character expression
EP3454302B1 (en) Approximating mesh deformation for character rigs
JP3184327B2 (ja) 3次元グラフィックス処理方法及びその装置
US7324121B2 (en) Adaptive manipulators
US5883638A (en) Method and apparatus for creating lifelike digital representations of computer animated objects by providing corrective enveloping
US20010036310A1 (en) Processing image data
US20020080139A1 (en) Apparatus and method of interactive model generation using multi-images
US5790950A (en) Computer graphics apparatus having an improved walk-through function
US10803660B2 (en) Real-time collision deformation
KR101793017B1 (ko) 컴퓨터 스크린 상에 객체를 디스플레이하는 방법, 장치 및 프로그램
JP4380042B2 (ja) アニメーション生成方法および装置
JP2002175541A (ja) アニメーション生成方法および装置
US20070171228A1 (en) Methods and Apparatus for Accelerated Animation Using Point Multiplication and Soft Caching
US11900514B2 (en) Digital content editing using a procedural model
JPH08297751A (ja) 三次元モデルの作成方法および装置
JPH1166351A (ja) 3次元仮想空間内部におけるオブジェクト動作制御方法および装置とオブジェクト動作制御プログラムを記録した記録媒体
JP3041360B2 (ja) 動画像の生成方法
JP3348833B2 (ja) 動画像合成装置
JP4257764B2 (ja) ゲームキャラクタのモーション表示方法
JP2000235655A5 (ja)
CN116647657A (zh) 响应式视频画布生成
JPH0816935B2 (ja) 波浪画像発生方式