JP2512052B2 - 動画像生成方法及び装置 - Google Patents

動画像生成方法及び装置

Info

Publication number
JP2512052B2
JP2512052B2 JP1698588A JP1698588A JP2512052B2 JP 2512052 B2 JP2512052 B2 JP 2512052B2 JP 1698588 A JP1698588 A JP 1698588A JP 1698588 A JP1698588 A JP 1698588A JP 2512052 B2 JP2512052 B2 JP 2512052B2
Authority
JP
Japan
Prior art keywords
display
display target
moving image
influence
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1698588A
Other languages
English (en)
Other versions
JPH01193974A (ja
Inventor
浩之 雨川
良三 武内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1698588A priority Critical patent/JP2512052B2/ja
Priority to KR1019890000776A priority patent/KR0162078B1/ko
Priority to EP89101436A priority patent/EP0326153B1/en
Priority to DE68926580T priority patent/DE68926580T2/de
Publication of JPH01193974A publication Critical patent/JPH01193974A/ja
Priority to US08/218,887 priority patent/US5680532A/en
Application granted granted Critical
Publication of JP2512052B2 publication Critical patent/JP2512052B2/ja
Priority to US08/924,886 priority patent/US6008818A/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は計算機によつて動画像を生成する方法及び装
置に係り、特に入力データを量的に変化させることによ
り様々な物体の動きを生成できる動画像生成方式に関す
る。
〔従来の技術〕
従来の動画像生成方式は、例えば「能動的キヤラクタ
を用いたアニメーシヨン生成手法」、内木哲也ほか、第
2回NICOGRAPH論文コンテスト論文集(社団法人 日本
コンピユータ・グラフイツクス協会、1986年)、pp.197
〜206において論じられている。動作物体は周囲の物体
の種類を観測した結果に基づいて、予めプログラムとし
て記述してある行動モデルのいくつかのパターンから適
切なものを選択して、そのルーチンに従つて動く、とい
う方式である。例えば、カマスがニシンの群れを攻撃す
る動画像の生成においては、カマスとニシンそれぞれに
対して次のように行動モデルを作り、それぞれプログラ
ム化する。
〈カマスの行動モデル〉 (1)ニシンの群れを発見した場合、その中心方向に向
かつて攻撃を仕掛ける。
(2)一度攻撃体制に移ると、たとえニシンの群れを見
失つてもしばらく行動を変更することはできない。
〈ニシンの行動モデル〉 (1)カマスの攻撃を察知した場合、両者の位置関係に
より攻撃回避のための方向を見出す。
(2)攻撃を受けていないか、回避した後ならば、でき
るだけ近隣のニシンの位置関係が等しくなるような方向
を見出し、群れを形成するための行動を見出す。
(3)周囲のニシンの位置関係を参考にして、(1)ま
たは(2)で見出された方向に進行したとき他のニシン
と干渉(衝突や接触)しそうな場合、 方向の変更のみを行ない進行を見合わせる。
以上の例のように、従来の動画像生成方式において
は、動作物体は周囲の物体の種類を認識し、行動のパタ
ーンを選択するようにしていた。
〔発明が解決しようとする課題〕
上記従来技術は、動作物体の種類ごと、及び動作物体
の周囲の物体の種類ごとにそれぞれ対応した行動のしか
たをプログラムとして記述しなければならない、という
問題があつた。また、同じ種類の物体の中での個体差
や、異種類の間の中間的性質を持つ物体に対応する行動
の表現が困難である、という問題があつた。
本発明の目的は、動作物体の種類によらず、行動の基
本部分(各時刻における動作物体の基準位置)の生成を
統一的に扱うことができ、または、入力データを量的に
変化させることにより様々な物体の動き、を生成するこ
とができる動画像生成方法及び装置を提供することにあ
る。
〔課題を解決するための手段〕
上記目的は、動作物体が含まれる空間の1つの以上の
点(被観測点)にそれぞれ、被観測点または被観測点で
代表される物体の種類または個体を区別する番号ではな
い、量を1つ以上与え、被観測点に与えられた量のうち
少なくとも1つを動作物体が観測した値をもとに動作物
体の動きを生成することにより、達成される。
〔作用〕
前記の従来技術の問題は、動作物体が観測する対象が
周囲の物体の種類であることに起因している。即ち、従
来技術では、動作物体は周囲の物体の種類を行動生成の
基礎に用いているので、周囲の物体の種類ごと、動作物
体の種類ごとにそれぞれ対応した行動モデル、及びその
プログラムが必要であつた。
そこで、動作物体が含まれる空間の1つ以上の点(被
観測点)にそれぞれ1つ以上の量を与え、動作物体の行
動は被観測点に与えられた量のうち少なくとも1つを動
作物体が観測した値をもとに生成するようにすると、行
動生成の基礎が量であつて、物体の種類または個体を区
別するものではないので、周囲の物体の種類ごとに対応
したプログラムを記述する必要がなく、また、動作物体
が観測した量の値から行動の基本部分または全部を生成
する方法を汎用的にすることにより、動作物体の種類ご
とにそれぞれプログラムを記述する必要がない。また、
同じ種類の物体の中での個体差や、異種類の間の中間的
性質を持つ物体に対応する行動の表現が、量の操作によ
り容易に行うことができる。
〔実施例〕
以下、本発明の一実施例を第1図により説明する。第
1図は前述の従来技術の例にあげたカマスがニシンの群
れを攻撃する動画像を、本発明の方法で生成するための
条件設定の例を示している。カマスとニシンそれぞれの
各個体をそれぞれ動作物体a:1a,動作物体b:1bとし、そ
れぞれを被観測点a:2a,被観測点b:2bで代表する。この
場合は全ての物体がそれぞれ動作物体であり、かつ、1
つの個体から見ると、他の全ての個体を代表する点は被
観測点である。カマスを表わす点に“−10"という量
を、ニシンを表わす点に“1"という量を与えた。カマス
から半径500以内の領域a:3aではカマスを表わす点の量
の観測値は−10、領域a:3aの外では0とした。ニシンか
ら半径200以上、半径3000未満の領域c:3cではニシンを
表わす点の量の観測値は1、半径3000以上の領域では0
とした。ニシンから半径200未満の領域b:3bでは、他の
ニシンが観測する値は−1、カマスが観測する値は1と
した。各個体の加速度の制御は、他の個体を表わす点
(被観測点)に与えた量の観測値に比例し、かつ、被観
測点に向いている力のベクトルを、自身以外の全ての被
観測点について加えた合成ベクトルを、自身の質量で除
したベクトルを加速度とすることにより行つた。カマス
の質量は0.02、ニシンの質量は0.01とした。また、カマ
スの最高速度を500、ニシンの最高速度を200と設定し、
この速度を越えないようにした。
この条件設定は次のように解釈できる。あるニシンか
ら距離3000以内にいるカマスから見ると、そのニシンは
1の値を持つ点であり、カマスはそのニシンの方向へ1
の力を自身に働かせる。その結果、カマスにはそれぞれ
のニシンに向かう力の合力が働き、それをカマス質量0.
02で除した加速度が生じるので、カマスがニシンを追う
行動が生成される。同様に、カマスから距離500以内に
いるニシンから見ると、カマスは−10の値をもつ点であ
り、そのニシンはカマスの方向へ−10の力を、従つてカ
マスと反対の方向へ+10の力を自身に働かせる。その結
果、そのニシンには+10の力をニシンの質量0.01で除し
た加速度がカマスと反対の方向へ生じるので、ニシンが
カマスから逃げる行動が生成される。あるニシンが他の
ニシンを観測すると、距離3000未満の領域において、距
離200以上では他のニシンの方向へ+1、距離200未満で
は他のニシンの反対方向へ+1の力が働く。距離200未
満でニシン同士が反発するように設定したのは、ニシン
の個体としてのテリトリーを表現するためである。この
ようにして、仲間とある距離を保とうとする群れの行動
が生成される。
以上の条件で、動作物体の種類によらない統一的プロ
グラムで、カマスがニシンの群れを攻撃する行動の基本
部分(各時刻における動作物体の基準位置)が生成され
た。生成された行動の基本部分に、ゆらぎを加えたり行
動の特徴部分を加えたりすることにより、行動の全体が
生成される。行動の特徴部分とは、動作物体の種類に依
存する部分で、動作物体を構成する各部の動きである。
この実施例ではカマスとニシンそれぞれの泳ぐ動作が行
動の特徴部分である。
本実施例は3次元空間における動きを生成したもので
ある。このような3次元空間の場合は、2次元の場合に
比べて物体の動きの自由度が大きいので、一般に動きの
指定が困難であるが、本実施例では行動の基本部分が自
動的に生成されるため、2次元の場合と同程度の容易さ
であつた。本発明は2次元,3次元ともに適用できるが、
特に3次元の場合に動きの生成のためのデータ設定が容
易であるという効果が発揮される。
以上の本発明の一実施例における動作物体の行動生成
の流れを第2図に示す。
なお、この実施例において例えばニシンの個体差を表
現したい場合は、ニシンを表わす点に与える量を、例え
ば1.0,0.9,1.2,1.1,0.8、などとばらつきを持つ量にす
ればよい。また、カマスとニシンの中間的性質を持つ物
体を表現したい場合は、カマスとニシンに与えたデータ
の中間的な値を与えればよい。このように入力データを
量的に変化させることにより、様々な物体の動きを生成
することができる。
次に、本発明の他の実施例を第3図により説明する。
物体7を代表する点である被観測点2に量5を与える。
この例では量5はCという値である。動作物体1には評
価基準となる評価関数4を与える。この例では評価関数
は定数倍を行う関数f(x)=Axとなつている。さらに
被観測点2に与えた量5が観測される領域3を定める。
動作物体1が観測する被観測点2の量の値xは、動作物
体1の位置が領域3の外側では0、内側ではx0(=C)
である。動作物体1の行動は、この観測値xを評価関数
4に代入して得られた値をもとに生成する。この例にお
いては評価関数4の値に比例した被観測点2に向かう力
を動作物体1に作用させたときの加速度を、力6を動作
物体1に与えた質量で除して求めることを繰り返し、行
動の基本部分を生成する。すなわち、評価関数4の値が
正のとき被観測点2へ向かう加速度が動作物体1に与え
られ、負のとき逆向きの加速度が与えられる。ただし、
動作物体1の速度が不自然にならないよう速度制限を設
けた。これにより、行動の基本部分である各時刻におけ
る動作物体の基準位置が生成される。
さらに、この行動の基本部分に行動の特徴部分を付加
する。この例では、動作物体1はチヨウであるので上昇
時は羽ばたき動作、不降時は滑空動作という行動の特徴
部分を前記行動の基本部分に付加する。このようにして
動作物体の行動が生成される。
被観測点に与える量はその被観測点またはそれに代表
される物体の性質を定量化して表現したものと考えても
よい。また、動作物体に与えられる評価関数は、被観測
点の性質に対するその動作物体の好みを表現したものと
考えてもよい。被観測点の量の観測値を評価関数に代入
して得られる量は、その動作物体がその被観測点または
それに代表される物体に対して感じる魅力、あるいは心
理的引力、またはその結果としての物理的引力の表現と
考えてもよい。
動作物体の種類が異なる場合は、評価関数、または質
量を変更すればよい。本実施例では、例えば評価関数4
の中の定数Aの値を変更すれば物体7に対する動作物体
1の近づき方、遠ざかり方が変わり、また質量を変更す
れば行動の変化の大きさが変わる。従つて、動作物体の
種類によらず、行動の基本部分の生成は統一的に行うこ
とができる。行動の特徴部分は動作物体の種類ごとに生
成してもよい。例えば動作物体が人間であれば低速のと
き歩く動作、高速のとき走る動作を行動の基本部分に付
加してもよい。
なお、第3図は動作物体と被観測点がそれぞれ1つず
つの場合であるが、どちらか、あるいは両者が複数の場
合も同様である。被観測点が複数の場合は、第1図に示
した前述の一実施例と同様に、同時刻に複数の力のベク
トルが発生するので、その合成ベクトルを用いて加速度
を計算すればよい。
第4図に本発明の他の実施例を示す、第3図に示した
実施例と異なる点は、被観測点2が物体を代表する点で
はないことであり、その他は同様である。このように被
観測点を任意の位置に設定することにより、動作物体の
行動を空間の任意の位置に対して制御することができ
る。
被観測点に与えられた量を動作物体が観測した値が、
二者の位置関係に依存するように設定する方法は、以上
の実施例に述べたものに限定するものではなく、各種考
えられる。
本発明の他の実施例では、第3図の領域3を定める代
わりにx=g(x0,r)という関係を用いた。ここでxは
被観測点に与えられた量を動作物体が観測した値,x0
被観測点に与えられた量,rは動作物体と被観測点との距
離,gはx0とrの2変数からなる関数である。例えばg
(x0,r)=x0・e-rと設定すると、被観測点と動作物体
が遠いほど連続的に被観測点に与えられた量の観測値の
大きさが小さくなる。このように関数gを連続関数にす
ると被観測点に与えられた量の観測値が連続的に変化す
るため、動作物体に加わる力も連続的に変化し、滑らか
な行動の基本部分が生成される。
本発明の他の実施例を第5図に示す。第3図の実施例
と異なる部分は、領域が複数の層で構成されていること
であり、この例では3a,3b,3cで示される3層となつてい
る。物体7を代表する被観測点2に与えられた量x0(=
C)を動作物体1が観測した値xは、この例では動作物
体の位置が3aの領域でx=C,3bの領域でx=C/2,3cの領
域でx=C/4,領域の外でx=0とした。これにより第3
図の実施例に比べて、動作物体1の位置による、被観測
点2に与えられた量を動作物体1が観測した値の変化が
隠やかになり、その結果、より滑らかな行動の基本部分
が生成される。
本発明の他の実施例を第6図に示す。第5図の実施例
と異なる部分は領域を動作物体に設定したことであり、
この例では3a,3bで示される2層の領域が動作物体1の
まわりに設定されている。物体7を代表する被観測点2
に与えられた量x0(=C)を動作物体1が観測した値x
は、この例では、被観測点2の位置が3aの領域でx=
C、3bの領域でx=C/2とした。被観測点の観測が動作
物体の観測能力に依存するような行動を生成する場合
は、この実施例のように領域を動作物体に設定するとよ
い。
本発明の他の実施例を第7図に示す。第3図の実施例
と異なる部分は、物体7を代表する被観測点2に2つの
項目についてそれぞれ量5a(=C1),5b(=C2)を与
え、それぞれの項目が観測可能となる領域3a,3bを設定
し、さらに動作物体1には、量5a,5bの観測値x1,x2
それぞれ評価する評価基準となる評価関数4a(f
1(x1)),4b(f2(x2))を与え、総合的な評価関数は
個々の評価関数4aと4bの和で与えていることである。こ
れにより、被観測点が代表する物体の複数の項目の性質
を表現でき、それに対応した動作物体の行動を生成する
ことができる。
本発明の他の実施例を第8図に示す。第7図の実施例
と異なるところは2つの動作物体1a,1bに、それぞれ代
表する被観測点2a,2b、被観測点に与える量5a,5b,5c,5d
とその観測可能な領域3a,3b,3c,3d、及び評価関数4a,4
b,4c,4dを設定したことである。これにより動作物体同
士が影響を及ぼし合う行動を生成することができる。
本発明の他の実施例では、動作物体が人間の顔であ
り、その変形量、即ち顔の表情を制御した。感情を意外
度,緊張度,気分の重さ、の3つの量の組合せで表わ
し、典型的な感情を表現するこの3つの量の組合せとそ
のときの顔の不部品の位置,姿勢を対応させる典型例の
データを作成した。前記3つの量は、それぞれの被観測
点に与えられた3種類の量を動作物体である顔の位置か
ら観測したときの各3つの観測値を、動作物体に与えら
れたそれぞれ意外度,緊張度,気分の重さに対応する評
価関数に代入して得られた量を用いた。この3つの評価
関数の値から、前記典型例のデータを補間して顔の各部
品の位置,姿勢を求め、顔の表情を生成した。
第9図に本発明による動画像生成方式を用いた動画像
生成システムの構成例を示す。記憶装置に記憶されてい
るデータを演算装置に送り、そのデータから本発明によ
る動画像生成方式を用いて動画像データを生成し、それ
を出力装置に出力するものである。出力装置は、動画像
データを動画像に変換して表示する表示装置であつても
よい。
即ち、第9図は動きが与えられる動作物体と、上記動
作物体が含まれるn次元(n≧2)空間(好ましくは3
次元空間)の少なくとも1つの被観測点と、上記被観測
点に予め与えられた少なくとも1つの量と、を記憶する
記憶装置と、上記動作物体から見た上記被観測点に予め
与えられた量のうちの少なくとも1つに基づいて上記動
作物体の動きを生成する演算装置と、上記演算手段の結
果を出力する出力装置と、からなる動画像生成装置であ
る。
尚、第9図において動きが与えられる動作物体と、上
記動作物体が含まれるn次元(n≧2)空間の少なくと
も1つの被観測点と、上記動作物体に予め与えられた少
なくとも1つの評価基準と、上記被観測点に予め与えら
れた少なくとも1つの性質と、を記憶する記憶手段と、
上記動作物体に予め与えられた少なくとも1つの評価基
準と、上記動作物体ら見た上記被観測点に予め与えられ
た性質のうちの少なくとも1つと、に基づいて上記動作
物体の動きを生成する演算手段と、上記演算手段の結果
を記憶する記憶手段と、を具備する動画像生成装置であ
つても良い。
第10図に本発明による動画像生成方式を用いた動画像
生成システムの他の構成例を示す。入力装置から入力し
たデータを演算装置に送り、そのデータから本発明によ
る動画像生成方式を用いて動画像データを生成し、それ
を出力装置に出力するものである。出力装置は、動画像
データを動画像に変換して表示する表示装置であつても
よい。
即ち、第10図は、動きが与えられる動作物体と、上記
動作物体が含まれるn次元(n≧2)空間の少なくとも
1つの被観測点と、上記被観測点に与える少なくとも1
つの量と、を入力する入力手段と、上記動作物体から見
た上記被観測点に与えられた量のうちの少なくとも1つ
に基づいて上記動作物体の動きを生成する演算手段と、
上記演算手段の結果を出力する出力手段と、を具備する
動画像生成装置である。
尚、第10図において、動きが与えられる動作物体と、
上記動作物体が含まれるn次元(n≧2)空間の少なく
とも1つの被観測点と、上記動作物体に与える少なくと
も1つの評価基準と、上記被観測点に与える少なくとも
1つの性質と、を入力する入力手段と、上記動作物体に
与えられた少なくとも1つの評価基準と、上記動作物体
から見た上記被観測点に与えられた性質のうちの少なく
とも1つと、に基づいて上記動作物体の動きを生成する
演算手段と、上記演算手段の結果を出力する出力手段
と、を具備する動画像生成装置であつても良い。
第11図に本発明による動画像生成方式を用いて動画像
生成システムの他の構成例を示す。入力装置から入力し
たデータを演算装置に送り、そのデータから本発明によ
る動画像生成方式を用いて動画像データを生成し、それ
を記憶装置に記憶させるものである。
即ち、第11図は、動きが与えられる動作物体と、上記
動作物体が含まれるn次元(n≧2)空間の少なくとも
1つの被観測点と、上記被観測点に与える少なくとも1
つの量と、を入力する入力手段と、上記動作物体から見
た上記被観測点に与えられた量のうち少なくとも1つに
基づいて上記動作物体の動きを生成する演算手段と、上
記演算手段の結果を記憶する記憶手段と、を具備する動
画像生成装置である。
尚、第11図において、動きが与えられる動作物体と、
上記動作物体が含まれるn次元(n≧2)空間の少なく
とも1つの被観測点と、上記動作物体に与える少なくと
も1つの評価基準と、上記被観測点に与える少なくとも
1つの性質と、を入力する入力手段と、上記動作物体に
与えた少なくとも1つの評価基準と、上記動作物体から
見た上記被観測点に与えられた性質のうちの少なくとも
1つと、に基づいて上記動作物体の動きを生成する演算
手段と、上記演算手段の結果を記憶する記憶手段と、を
具備する動画像生成装置であつても良い。
更に、第9図から第10図を組み合わせて構成される動
画像生成装置も考えられる。
例えば、動きが与えられる動作物体と、上記動作物体
が含まれるn次元(n≧2)空間の少なくとも1つの被
観測点と、上記被観測点に与える少なくとも1つの量
と、を入力して記憶する入力記憶手段と、上記動作物体
から見た上記被観測点に与えられた量のうちの少なくと
も1つに基づいて上記動作物体の動きを生成する演算手
段と、上記演算手段の結果を記憶する記憶手段と、上記
演算手段の結果を出力する出力手段と、を具備する動画
像生成装置が本発明の一変形例としてある。
また、動きが与えられる動作物体と、上記動作物体が
含まれるn次元(n≧2)空間の少なくとも1つの被観
測点と、上記動作物体に与える少なくとも1つの評価基
準と、上記被観測点に与える少なくとも1つの性質と、
を入力して記憶する入力記憶手段と、上記動作物体に与
えられた少なくとも1つの評価基準と、上記動作物体か
ら見た上記被観測点に与えられた性質のうちの少なくと
も1つと、に基づいて上記動作物体の動きを生成する演
算手段と、上記演算手段の結果を記憶する記憶手段と、
上記演算手段の結果を出力する出力手段と、を具備する
動画像生成装置も他の変形例である。
第12図に本発明による動画像生成方式を用いた動画像
生成方法の構成例を示す。他の処理を行つた後のデータ
から本発明による動画像生成方式を用いて動画像データ
を生成し、それにさらに他の処理を加えるものである。
以上、本発明の実施例を数種示したが、本発明はこれ
に限定されるものではなく、他にも種々の変形が考えら
れよう。例えば、領域を複雑な形状にする、力の向きを
被観測点への向きからずらす、被観測点に与える量やそ
の観測値を時間によつて変化させる、評価関数の値によ
つて行動の特徴部分を制御する、など様々な変形が考え
られる。
〔発明の効果〕
本発明によれば、動作物体の行動は被観測点に与えら
れた量を動作物体が観測した値をもとに生成するので、
動作物体の種類によらず、行動の基本部分の生成を統一
的に扱うことができ、または、入力データを量的に変化
させることにより様々な物体の動きを生成することがで
きる。
【図面の簡単な説明】
第1図は本発明の一実施例の条件設定を示す図、第2図
は第1図における行動生成の流れ図、第3図,第4図,
第5図,第6図,第7図,第8図は本発明の他の実施例
の条件設定を示す図、第9図,第10図,第11図は本発明
の方式を用いた動画像生成システムの構成例を示す図、
第12図は本発明の方式を用いた動画像生成方法の構成例
を示す図である。 1,1a,1b…動作物体、2,2a,2b…被観測点、3,3a,3b,3c,3
d…領域、4,4a,4b,4c,4d…評価関数、5,5a,5b,5c,5d…
量、7…物体。

Claims (9)

    (57)【特許請求の範囲】
  1. 【請求項1】コンピュータグラフィックスによる表示対
    象に動きを与え、その動きに応じて該表示対象の表示を
    変化させる動画像の生成方法において、 第1の表示対象の属性により当該第1の表示対象からの
    距離の関数が定められ、第1の表示対象を含む空間にお
    ける該第1の表示対象からの前記距離の関数により求め
    られる、第1の表示対象が他の第2の表示対象の動きの
    変化量に与える影響の大小を表す影響データを、前記第
    2の表示対象の属性とは独立に定めて、該第1の表示対
    象を特定するデータと対応付けて記憶部に記憶してお
    き、 第2の表示対象の前記空間における位置を示すデータ及
    び前記記憶部に記憶した影響データに基づいて、該第2
    の表示対象の動きを演算部により決定し、決定された前
    記動きに応じて該第2の表示対象の表示を変化させる ことを特徴とする動画像生成方法。
  2. 【請求項2】請求項1に記載の動画像生成方法におい
    て、 前記影響データは、前記第1の表示対象から前記第2の
    表示対象を近付けたり遠ざけたりする動きの変化量に与
    える影響の大小を表すデータであることを特徴とする動
    画像生成方法。
  3. 【請求項3】請求項1に記載の動画像生成方法におい
    て、 前記影響データは、前記距離の関数により定められる第
    1の表示対象の周りに定められた領域を表すデータと、
    前記領域に設定された前記第1の表示対象から前記第2
    の表示対象を近付けたり遠ざけたりする動きの変化量に
    与える影響の大小を表すデータとを含むものであり、 第2の表示対象の前記空間上における位置が、前記領域
    の中に存在する場合に、該第2の表示対象の動きを演算
    部により決定し、前記決定された動きに応じて該第2の
    表示対象の表示を変化させることを特徴とする動画像生
    成方法。
  4. 【請求項4】請求項2又は3のいずれかに記載の動画像
    生成方法において、 前記影響データからの第2の表示対象の影響の受け易さ
    を示すデータを記憶部に記憶しておき、 第1の表示対象から前記第2の表示対象を近付けたり遠
    ざけたりする動きの変化量に与える影響の大小を表すデ
    ータを、前記第2の表示対象の影響の受け易さを示すデ
    ータで除して第2の表示対象物の加速度を演算すること
    により動きを決定し、前記決定された動きに応じて該第
    2の表示対象の表示を変化させることを特徴とする画像
    生成方法。
  5. 【請求項5】コンピュータグラフィックスによる表示対
    象に動きを与え、その動きに応じて該表示対象の表示を
    変化させる動画像の生成方法において、 第1の表示対象の属性により当該第1の表示対象からの
    距離の関数が定められ、第1の表示対象を含む空間にお
    ける該第1の表示対象からの前記距離の関数により第2
    の表示対象の属性とは独立に求められる、第1の表示対
    象が当該第1の表示対象の動きの変化量に関して他の第
    2の表示対象から受ける影響の大小を表す影響データ
    を、該第1の表示対象を特定するデータと対応付けて記
    憶部に記憶しておき、 第1の表示対象及び第2の表示対象の前記空間における
    位置を示すデータ並びに前記記憶部に記憶した影響デー
    タに基づいて、該第1の表示対象の動きを演算部により
    決定し、決定された前記動きに応じて該第1の表示対象
    の表示を変化させる ことを特徴とする動画像生成方法。
  6. 【請求項6】コンピュータグラフィックスによる表示対
    象に動きを与え、その動きに応じて該表示対象の表示を
    変化させる動画像の生成装置おいて、 第1の表示対象の属性により当該第1の表示対象からの
    距離の関数が定められ、第1の表示対象を含む空間にお
    ける該第1の表示対象からの前記距離の関数により、第
    2の表示対象の属性とは独立に求められる、第1の表示
    対象が他の第2の表示対象の動きの変化量に与える影響
    の大小を表す影響データを、該第1の表示対象を特定す
    るデータと対応付けて記憶する記憶部と、 第2の表示対象の前記空間における位置を示すデータ及
    び前記記憶部に記憶した影響データに基づいて、前記第
    2の表示対象の動きを決定する演算部と、 決定された前記動きに応じて前記第2の表示対象の表示
    を変化させる表示部 とを有することを特徴とする動画像生成装置。
  7. 【請求項7】請求項6に記載の動画像生成装置におい
    て、 前記記憶部に記憶された影響データは、前記第1の表示
    対象から前記第2の表示対象を近付けたり遠ざけたりす
    る動きの変化量に与える影響の大小を表すデータである
    ことを特徴とする動画像生成装置。
  8. 【請求項8】請求項6に記載の動画像生成装置におい
    て、 前記記憶部に記憶された影響データは、前記距離の関数
    により定められる第1の表示対象の周りに定められた領
    域を表すデータと、前記領域に設定された前記第1の表
    示対象から前記第2の表示対象を近付けたり遠ざけたり
    する動きの変化量に与える影響の大小を表すデータとを
    含むものであり、 前記演算部は、画像上における第2の表示対象の位置
    が、前記領域の中に存在する場合に、該第2の表示対象
    の動きを決定することを特徴とする動画像生成装置。
  9. 【請求項9】請求項7又は8のいずれかに記載の動画像
    生成装置において、 前記影響データからの第2の表示対象の影響の受け易さ
    を示すデータを記憶する記憶部を有し、 前記演算部は、第1の表示対象から前記第2の表示対象
    を近付けたり遠ざけたりする動きの変化量に与える影響
    の大小を表すデータを、前記第2の表示対象の影響の受
    け易さを示すデータで除して第2の表示対象物の加速度
    を演算することにより動きを決定することを特徴とする
    画像生成装置。
JP1698588A 1988-01-29 1988-01-29 動画像生成方法及び装置 Expired - Lifetime JP2512052B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP1698588A JP2512052B2 (ja) 1988-01-29 1988-01-29 動画像生成方法及び装置
KR1019890000776A KR0162078B1 (ko) 1988-01-29 1989-01-25 동화상생성방법 및 장치
EP89101436A EP0326153B1 (en) 1988-01-29 1989-01-27 Method and apparatus for producing animation images
DE68926580T DE68926580T2 (de) 1988-01-29 1989-01-27 Verfahren und Gerät zum Erzeugen beweglicher Bilder
US08/218,887 US5680532A (en) 1988-01-29 1994-03-28 Method and apparatus for producing animation image
US08/924,886 US6008818A (en) 1988-01-29 1997-09-05 Method and apparatus for producing animation image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1698588A JP2512052B2 (ja) 1988-01-29 1988-01-29 動画像生成方法及び装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP20877092A Division JPH05189540A (ja) 1992-08-05 1992-08-05 動画像生成方法及び装置

Publications (2)

Publication Number Publication Date
JPH01193974A JPH01193974A (ja) 1989-08-03
JP2512052B2 true JP2512052B2 (ja) 1996-07-03

Family

ID=11931335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1698588A Expired - Lifetime JP2512052B2 (ja) 1988-01-29 1988-01-29 動画像生成方法及び装置

Country Status (5)

Country Link
US (1) US5680532A (ja)
EP (1) EP0326153B1 (ja)
JP (1) JP2512052B2 (ja)
KR (1) KR0162078B1 (ja)
DE (1) DE68926580T2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03256175A (ja) * 1990-03-07 1991-11-14 Matsushita Electric Ind Co Ltd 動画生成装置
JP2675435B2 (ja) * 1990-11-26 1997-11-12 富士通株式会社 アニメーション自動生成方式
JP3239683B2 (ja) * 1995-05-11 2001-12-17 株式会社セガ 画像処理装置および画像処理方法
NL1000679C2 (nl) * 1995-06-28 1996-12-31 Arie Van Wieringen Video Film Bewegingseditor/samensteleenheid.
US5847716A (en) * 1996-07-31 1998-12-08 Silicon Graphics, Inc. Manipulation of graphic structures using inverse kinematics
AUPQ027899A0 (en) * 1999-05-10 1999-06-03 Canon Information Systems Research Australia Pty Ltd Method and apparatus for automatically positioning one or more objects within a region
KR100458760B1 (ko) * 2000-08-29 2004-12-03 가부시끼가이샤 코에이 집단 캐릭터 표시방법, 기록매체 및 게임장치
US7206729B2 (en) * 2000-12-29 2007-04-17 Pixar Inertial field generator: a method for controllably coupling kinematic character motions to dynamically simulated elements
GB2391147A (en) * 2002-07-19 2004-01-28 Kaydara Inc Generating animation data simply via display
US9451195B2 (en) * 2006-08-04 2016-09-20 Gula Consulting Limited Liability Company Moving video tags outside of a video area to create a menu system
US8640030B2 (en) * 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58219591A (ja) * 1982-06-15 1983-12-21 キヤノン株式会社 表示装置
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
US4700181A (en) * 1983-09-30 1987-10-13 Computer Graphics Laboratories, Inc. Graphics display system
JPH07104959B2 (ja) * 1983-12-28 1995-11-13 株式会社日立製作所 生長モデル表示装置
US4760390A (en) * 1985-02-25 1988-07-26 Computer Graphics Laboratories, Inc. Graphics display system and method with enhanced instruction data and processing
US4711543A (en) * 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4894774A (en) * 1986-10-15 1990-01-16 Mccarthy Patrick J Lookahead pipeline for processing object records in a video system
US4905168A (en) * 1986-10-15 1990-02-27 Atari Games Corporation Object processing for video system using slips and linked list
US4797836A (en) * 1986-11-19 1989-01-10 The Grass Valley Group, Inc. Image orientation and animation using quaternions

Also Published As

Publication number Publication date
KR0162078B1 (ko) 1999-01-15
EP0326153A3 (en) 1991-11-27
US5680532A (en) 1997-10-21
DE68926580T2 (de) 1996-10-02
JPH01193974A (ja) 1989-08-03
DE68926580D1 (de) 1996-07-11
KR890012238A (ko) 1989-08-25
EP0326153B1 (en) 1996-06-05
EP0326153A2 (en) 1989-08-02

Similar Documents

Publication Publication Date Title
US11763510B2 (en) Avatar animation using markov decision process policies
US20200388066A1 (en) Avatar facial expression representation in multidimensional space
Tu Artificial animals for computer animation: biomechanics, locomotion, perception, and behavior
Lombardo et al. Real-time collision detection for virtual surgery
Dickerson et al. Virtual worlds as fuzzy cognitive maps
DE69836383T2 (de) Bildverarbeitungssystem und -verfahren
Terzopoulos et al. Artificial fishes: Autonomous locomotion, perception, behavior, and learning in a simulated physical world
JP2512052B2 (ja) 動画像生成方法及び装置
CN111028317B (zh) 虚拟对象的动画生成方法、装置、设备及存储介质
Lethbridge et al. A simple heuristically-based method for expressive stimulus-response animation
Ricardez et al. SutureHap: Use of a physics engine to enable force feedback generation on deformable surfaces simulations
JP2004062676A (ja) プログラム、記録媒体、3次元群れ制御方法及びゲーム装置
Chen et al. Controlling the movement of crowds in computer graphics by using the mechanism of particle swarm optimization
Silveira et al. Managing coherent groups
Osborne et al. Improving games AI performance using grouped hierarchical level of detail
JPH05189540A (ja) 動画像生成方法及び装置
Aaron et al. A hybrid dynamical systems approach to intelligent low-level navigation
JP2009251887A (ja) 画像生成システム、プログラム及び情報記憶媒体
McAdam Continuous interactive simulation: Engaging the human sensory-motor system in understanding dynamical systems
Yu et al. Synthetic motion capture: Implementing an interactive virtual marine world
Othman et al. Developing reflex-based agent with Unity3D game engine
DiPaola et al. Experiencing belugas: Action selection for an interactive aquarium exhibit
al-Rifaie et al. Swarmic Autopoiesis: Decoding de Kooning
NAKADAI et al. Life-like Animation System Based on Intermittency and Diversity of Motion
Thalmann et al. Virtual and real humans interacting in the virtual world