JP2011115933A - 動力学基盤動作生成装置及び方法 - Google Patents

動力学基盤動作生成装置及び方法 Download PDF

Info

Publication number
JP2011115933A
JP2011115933A JP2010141651A JP2010141651A JP2011115933A JP 2011115933 A JP2011115933 A JP 2011115933A JP 2010141651 A JP2010141651 A JP 2010141651A JP 2010141651 A JP2010141651 A JP 2010141651A JP 2011115933 A JP2011115933 A JP 2011115933A
Authority
JP
Japan
Prior art keywords
dynamic
data
motion
character
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010141651A
Other languages
English (en)
Inventor
Sang Won Ghyme
サン ウォン ギミ
Myung Gyu Kim
ミュンギュ キム
Sung June Chang
ソン ジュン チャン
Man Kyu Sung
マン キュ ソン
Il-Kwon Jeong
イル−クォン チョン
Byoung Tae Choi
ビョン テ チェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2011115933A publication Critical patent/JP2011115933A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】動力学的動作制御方法を活用して既存の方法で生成された動作の全体的な形態は保持しながらも、細部的に物理法則が適用される自然な移動を保障できる動力学基盤動作生成装置及び方法を提供する。
【解決手段】本発明は動力学基盤動作生成技術に関し、動力学シミュレーションを導入してアニメータが生成した動作データを客観的な物理法則を満足する動作データに補正し、既存のキャラクタアニメーションツールと動力学基盤動作生成装置を用いて初心者でもロボットの動作表現を容易に行える動作生成技術を実現することを特徴とする。本発明によれば、アニメータが既存のキャラクタアニメーションツールで生成したキャラクタの動作を動力学シミュレーションを通じて動力学的に補正された動作を自動で生成できるように支援できる。
【選択図】図1

Description

本発明はコンピュータグラフィックスとロボット制御技術に関し、特に、関節を持つ3次元キャラクタモデルの姿勢を動力学的制約条件により生成し、このような動作の生成を簡単に実現できるユーザインターフェースを提供するのに適した動力学基盤動作生成装置及び方法に関する。
一般に、3次元キャラクタの動作生成時に3次元キャラクタは関節(Joint)と分節(Bone)とで構成された骨格構造(Skeleton)を有する。キャラクタの動作は、キャラクタ骨格構造の時間の順序に従った姿勢の変化により表現される。例えば、1秒当たりに30Hzで表現される5秒分量の動作を製作すると仮定すれば、全体として150(5*30)個の動作フレームが存在し、各動作フレームでキャラクタ骨格構造の姿勢が指定されて全体的な動作を構成する。
3次元キャラクタの動作を生成する即ち、各動作フレームに対して姿勢を指定する方法は、以下の通りである。
第1の方法は、全ての動作フレームでキャラクタの姿勢を指定する。この作業の量は、キャラクタの骨格構造内の関節の個数と単位時間当りのフレームの個数と時間全体との積(nJoints*nFrameRate*nTime)に比例する。しかし、全ての作業を手作業で処理するため、多くの時間が要求され、作業の正確度が低下する可能性も大きい。
第2の方法は、2Dアニメーションのキーフレーミング技法を応用して、動作の幾つかの地点をキーフレーム(Key Frame)として設定して、このキーフレームのみキャラクタの姿勢を指定し、中間フレーム(Inbetween Frame)は前後のキーフレームを参照して補間(Interpolation)方法により自動生成する。このような動作生成自動化方法により手作業による作業量が画期的に減少するようになる。
3次元キャラクタの骨格は、一般にツリー構造(Tree Structure)で表現される。下位のノード(関節と分節)は上位ノードに連結されて、上位ノードの移動はそのまま下位ノードに影響を及ぼす。このような構造は、キャラクタ骨格の姿勢の指定を非常に難しくする。
例えば、人間キャラクタに腕を動かしてカップを取らせる動作を生成すると仮定する。現実世界の人間には指先をカップに付ける非常に単純な動作であるが、人間キャラクタの場合は腕のみを使う場合でもまず上腕(Upper Arm)を、次に下腕(Lower Arm)を、次に手を、次に指を移動する複雑な作業を連続して行わなければならない。このように上位ノードから下位ノードへ行きながら、動作を指定する方法を正運動学(Forward Kinematics)的動作制御という。このような動作制御方法による動作の生成は、多くの作業量を要求する。
一方、末端となる下位ノードの移動に応じた上位ノードの動作を自動で指定することが可能であるが、このような方法を逆運動学(Inverse Kinematics)的動作制御という。下位ノードの移動に応じた上位ノードの動作は多様に存在し得る。従って、逆動学的制御により生成されたキャラクタの動作は末端が指定された位置(Position)や方位(Orientation)に置かれる条件は満足するが、中間ノードの位置と方位はアニメータが所望する形態でないこともあり得るので、このような場合にも逆動学的動作制御を用いて中間ノードの位置と方位を再指定できる。
正運動学的動作制御方法を用いれば、末端ノードの位置と方位がどうなるか確信できないので、何度も作業が繰り返され得るが、逆動学的動作制御方法を用いれば、末端から最上位のノードに至る動作指定作業を一度のみ遂行すれば良いので、アニメータが所望する動作を更に容易に生成することが可能である。
もし、3次元キャラクタがスーパーマンのように空を飛ぶ、建物を持ち上げる等の動作を行うことができると設定すれば、このようなキャラクタの動作生成は比較的に易しい。なぜならば、動作の生成作業は完全にアニメータの想像力により決定され得るためである。これはキャラクタのいかなる動作表現も批判される余地がない。
ただし、3次元キャラクタが現実世界の人間や動物を表現しなければならないのであれば、このようなキャラクタの動作生成は非常に難しい。なぜならば、現実世界のような物理法則が支配する空間で活動するキャラクタの動作を表現しなければならないためである。これはキャラクタの動作が少しでも無器用であったり、誇張されていたりしても現実世界に慣れている我々は動作の無器用さを直ぐ認知できる。
従って、運動学的動作制御方法を用いてキャラクタの現実世界の動作を表現することは非常に難しい。即ち、まねをすることは難しくないが、細部的にも詳しく表現することは想像力だけで解決するには限界がある。なぜならば、現実世界で物体は相互間で力をやりとりするが、運動学的動作制御はこのような動力学(Dynamics)を考慮しないためである。
現実世界の動作を表現するために、動力学的動作制御を用いることが有用である。しかし、既存キャラクタの関節と分節とで構成された骨格構造のみでそのまま動力学的動作制御方法を用いることができない。動力学のために、現実世界のように物体に該当する分節に体積(Volume)、質量(Mass)、慣性値(inertia)などを指定しなければならない。また、分節と分節を連結する関節の自由度(Degree Of Freedom)などを指定しなければならない。この他にも重力の強度、摩擦係数など多様な物理値を設定しなければならない。
このような値の指定は、現実世界の物理法則のための制約条件を付けることを意味する。一般に、物体は6自由度を有して自由に動くことが可能であるが、重力による制約条件と摩擦力による制約条件及び連結された他の物体の運動の影響(Feedback)による制約条件が加われば、制限された範囲で運動を行うようになる。
このように動力学的動作制御方法は、現実世界の物理法則に従う動作を表現するのに有用であるが、直観的な動作制御が難しくならざるを得ない。運動学的動作制御は、物体(キャラクタ)の位置と方位を直接的に制御するため、直観的に容易に動作を表現できるが、動力学的動作制御は力を与えて物体(キャラクタ)の移動を間接的に制御するため、直観的に動作を表現し難い。
多分節(多関節)キャラクタの場合、各分節に多様な力を加えて物理法則に従って自由奔放に動かせることは難しくない。しかし、分節の自由な運動はアニメータが所望することではない。アニメータは歩いたり、走ったりするなどの特定の方式でのみ分節が移動することを所望する。即ち、特定時間に各分節が特定位置と方位に置かれることを望む。ところで、骨格構造は分節が互いに複雑に連結されて動作時に相互間で影響し合うため、各分節が特定の位置や方位に移動するために必要な力を求めることは非常に難しい。
与えられた力により物体の位置と方位を求める正動力学的動作制御方法とは反対に物体の次の位置と方位を指定すれば、必要な力を自動で逆算する逆動力学的動作制御方法が存在する。
現在、アニメータがキャラクタの動作を生成するのに用いるアニメーションツールを詳察すると、上述したあらゆる動作制御方法をいずれも提供している。主にキーフレーミング動作生成方法と逆動力学的動作制御方法を共に用いている状況である。そして、物体の衝突による物体の自由運動や単純に倒れる動作(Ragdoll motion)などに正動力学的動作制御方法が制限的に用いられている。
ただし、逆動力学的動作制御方法は商用のアニメーションツールでは提供されておらず、主に論文などを通じて研究結果を発表している状況である。
現在まで紹介されている逆動力学的動作制御方法を詳察すると、比例微分制御器(Proportional-Derivative Controller、以下PD制御器という)を用いて近似する力を求める方法と、制約条件方程式(Constrained Equation)で所望する制約条件(例えば、位置と方位)に要求される正確な力を求める方法がある。
ここで、PD制御器の場合、数式(F=K1(次の位置−現在の位置)+K2(次の速度−現在の速度))で定数値であるK1とK2を適切に調節して要求される力値を求める非常に簡単な方法である。Pawel Wrotekの2006年度の論文‘‘Dynamo:Dynamic,Data-driven Character Control with Adjustable Balance’’ではPD制御器を通じてモーションキャプチャデータの動作と類似する動作を生成したことを示している。このようにPD制御器を用いる方法は、多分節キャラクタの場合、各分節の適切なK1、K2定数値を求めることが難しいため、実用的に用いられていない。制約条件方程式を用いる場合は、正確な力値を求めるのに多くの時間とメモリ空間が要求される。
一方、逆動力学動作制御方法を用いるとき、分節の位置と方位を所望の位置と方位に正確に置けば、運動学的動作制御方法と殆ど差がないため、苦労して動力学方程式を計算する必要がなくなる。従って、逆動力学的動作制御方法は、アニメータの動作表現に合うように補正する役割にとどまる必要があるが、逆動力学的動作制御方法はまだ実用化していないため、その役割について議論がなされていない状況である。
特開2003−231077号公報
前述したように動作する従来技術による3次元キャラクタの動作生成方式のように、2次元のコンピュータ画面を通じて3次元キャラクタの動作を生成することは非常に難しい作業である。従って、キーフレーミングや逆動学的動作制御方法などの動作生成を自動化する技法を用いて動作に制限がなく、アニメータの想像力にのみ依存するスーパーマンやアニメーションなどのキャラクタは既存のアニメーションツールだけでも十分に表現可能である。
ところで、現実世界の物理法則のような制約条件を満足するキャラクタの動作表現は非常に難しい作業である。これは既に私達が現実世界に慣れているため、キャラクタ動作の微細な不器用さにも容易に気がつくためである。このような現実的な動作を表現するために、動作のあらゆるフレームに対してキャラクタの全ての関節を微細に調整する作業を行わなければならないが、このような努力の結果によっても現実的であるという保証を受けられないという問題があった。
そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、動力学的動作制御方法を活用して既存の方法で生成された動作の全体的な形態は保持しながらも、細部的に物理法則が適用される自然な移動を保障できる動力学基盤動作生成装置及び方法を提供することにある。
また、本発明の他の目的は、動力学シミュレーションを導入してアニメータが生成した動作データを客観的な物理法則を満足する動作データに補正できるようにし、既存のキャラクタアニメーションツールと動力学基盤動作生成システムを用いて初心者でもロボットの動作表現を簡単に使用できる動力学基盤動作生成装置及び方法を提供することにある。
本発明の一実施形態による動力学基盤動作生成装置は、コンピュータ装置に入力されたキャラクタモデルデータを動力学シミュレーションが可能なキャラクタの動力学モデルデータに変換する動力学モデル変換部と、前記動力学モデルデータを修正し、環境モデルを追加又は修正する動力学モデル制御部と、前記キャラクタモデルデータを用いて生成されたキャラクタの動作データに前記動力学モデルデータと前記環境モデルを参照して動力学シミュレーションを通じて動力学動作データに変換する動力学動作変換部と、前記動力学動作データと前記キャラクタの動作データを編集する動作編集部と、前記動力学動作データを参照して連結されるロボットの各関節モータに既に設定されたトルク値を入力してロボットを制御するロボット動作制御部とを含む。
そして、前記動力学動作変換部は、前記キャラクタの動作データに付いて行くように分節の位置、速度、加速度制約条件を追加し、前記動力学モデルデータの動力学的関節データで運動制限範囲を満足する制約条件を追加し、動力学的分節データで最大トルクの制約条件を追加する動力学シミュレーションを通じて前記動力学動作データに変換することを特徴とする。
ここで、前記動力学的関節データは、位置、関節の種類、運動制限範囲、最大トルク、連結された動力学的分節のリストのうちの少なくとも1つを含むことを特徴とする。
そして、前記動力学的分節データは、位置、方位、大きさ、質量、慣性、密度、メッシュ、連結された動力学的関節のリストのうちの少なくとも1つを含むことを特徴とする。
このとき、前記質量はキャラクタ全体の大きさに対して該当分節の大きさの比率に既に設定された定数値を掛けて設定し、前記慣性は前記キャラクタモデルデータの皮膚メッシュ及びリギングデータから算出し、前記メッシュはボックス或いは円筒状に処理することを特徴とする。
一方、前記動力学モデル制御部は、前記動力学モデルデータの動力学的関節データの最大トルク値を制御して動力学動作の変換程度を制御することを特徴とする。
また、前記動力学モデル制御部は、キャラクタの動作環境に基づいて前記環境モデルを生成し、生成された環境モデルの大きさ、位置及び方位のうちの少なくとも1つを修正して前記動力学動作変換部に伝達することを特徴とする。
そして、前記キャラクタの動作データは、前記キャラクタモデルデータを用いてキーフレーミング又は運動学的動作制御方式を通じて生成することを特徴とする。
そして、前記キャラクタモデルデータは、キャラクタの骨格構造、皮膚メッシュ、リギングデータのうちの少なくとも1つを含むことを特徴とする。
そして、前記動力学動作データは、動力学的分節のフレーム別の入力力、入力トルク、結果位置、結果方位、結果線速度、結果角速度、衝突関連イベントのうちの少なくとも1つを含むことを特徴とする。
本発明の一実施形態による動力学基盤動作生成方法は、コンピュータ装置に入力されたキャラクタモデルデータを動力学シミュレーションが可能な動力学モデルデータに変換する過程と、前記生成された動力学モデルデータを修正し、環境モデルを追加又は修正する過程と、前記キャラクタモデルデータを用いて生成されたキャラクタの動作データに前記動力学モデルデータと環境モデルを参照して動力学シミュレーションを通じて動力学動作データに変換する過程と、前記動力学動作データと前記動作データを編集する過程と、前記動力学動作データを参照して連結されるロボットの各関節モータに既に設定されたトルク値を入力してロボットを制御する過程とを含む。
そして、前記動力学動作データに変換する過程は、前記キャラクタの動作データに付いて行くように分節の位置、速度、加速度制約条件を追加する過程と、前記動力学モデルデータの動力学的関節データで運動制限範囲を満足する制約条件を追加し、動力学的分節データで最大トルクの制約条件を追加する動力学シミュレーションを通じて前記動力学動作データに変換する過程とを含む。
ここで、前記動力学的関節データは、位置、関節の種類、運動制限範囲、最大トルク、連結された動力学的分節のリストのうちの少なくとも1つを含むことを特徴とする。
そして、前記動力学的分節データは、位置、方位、大きさ、質量、慣性、密度、メッシュ、連結された動力学的関節のリストのうちの少なくとも1つを含むことを特徴とする。
このとき、前記質量はキャラクタ全体の大きさに対して該当分節の大きさの比率に既に設定された定数値を掛けて設定し、前記慣性は前記キャラクタモデルデータの皮膚メッシュ及びリギングデータから算出し、前記メッシュはボックス或いは円筒状に処理することを特徴とする。
一方、前記修正する過程は、前記動力学モデルデータの動力学的関節データの最大トルク値を修正して動力学動作の変換程度を制御することを特徴とする。
また、前記修正する過程は、キャラクタの動作環境に基づいて前記環境モデルを生成する過程と、前記生成された環境モデルの大きさ、位置及び方位のうちの少なくとも1つを修正する過程を含むことを特徴とする。
そして、前記キャラクタの動作データは、前記キャラクタモデルデータを用いてキーフレーミング又は運動学的動作制御方式を通じて生成することを特徴とする。
また、前記キャラクタモデルデータは、キャラクタの骨格構造、皮膚メッシュ、リギングデータのうちの少なくとも1つを含むことを特徴とする。
更に、前記動力学動作データは、動力学的分節のフレーム別の入力力、入力トルク、結果位置、結果方位、結果線速度、結果角速度、衝突関連イベントのうちの少なくとも1つを含むことを特徴とする。
本発明の実施形態による動力学基盤動作生成装置及び方法によれば、アニメータが既存のキャラクタアニメーションツールを用いて現実世界の物理法則に従うキャラクタの動作を精巧に表現することは難しいため、アニメータが既存のキャラクタアニメーションツールで生成したキャラクタの動作を動力学シミュレーションを通じて動力学的に補正された動作を自動で生成できるように支援できるという効果を奏する。
また、現在のロボット動作表現はロボット関節の制御が難しいため困難となっているが、既存のキャラクタアニメーションツールと動力学基盤動作生成システムを用いて初心者でもロボットの動作を容易に表現できるようにすることができる。
このような動力学基盤動作生成技法は、独立したソフトウェアアプリケーションで実現されることができ、既存のキャラクタアニメーション著作ツールに対するプラグインで実現されることができるという効果がある。
本発明の実施形態による動力学基盤動作生成装置の構造を示すブロック図である。 本発明の実施形態による動力学基盤動作生成装置の動作手順を示すフローチャートである。 本発明の実施形態による動力学基盤動作生成装置の動力学モデル変化モジュールで生成された馬(Horse)キャラクタの動力学モデルデータを示す図である。 本発明の実施形態による動力学基盤動作生成装置の動力学動作生成モジュールで生成された馬キャラクタの動力学動作データと参照された動作データを示す図である。
以下、本発明の実施形態で動力学基盤動作生成装置及び方法について添付された図面を参照して詳細に説明する。
図1は、本発明の実施形態による動力学基盤動作生成装置の構造を示すブロック図である。
図1を参照すると、動力学基盤動作生成装置100は、コンピュータ、ノートブック、携帯電話などのコンピュータ装置に装着されて駆動されるものであって、動力学モデル変換モジュール102、動力学モデル制御モジュール104、動力学動作変換モジュール106、動作編集モジュール108及びロボット動作制御モジュール110などを含む。
具体的に、動力学モデル変換モジュール102は、既存キャラクタの骨格構造、皮膚メッシュ(Skin Mesh)、リギングデータ(Rigging Data)のうちの少なくとも1つを含むモデルデータを動力学シミュレーションが可能なキャラクタの動力学モデルデータへの変換を行う。
このとき、変換されたキャラクタの動力学モデルデータは、動力学的分節データと、動力学的関節データを含むものであって、動力学的分節データは、位置、方位、大きさ、質量(Mass)、慣性(Inetia)、密度(Density)、メッシュ、連結された動力学的関節のリストのうちの少なくとも1つを含むことができ、動力学的関節データは、位置、種類(Hinge、Universal、Sperical)、運動制限範囲、最大トルク(Torque)、連結された動力学的分節のリストのうちの少なくとも1つを含むことができる。
動力学モデル制御モジュール104は、キャラクタの動力学モデルデータを修正し、新しい環境モデルデータを追加したり、既存の環境モデルデータを修正したりする機能を行う。
動力学動作変換モジュール106は、動力学モデル制御モジュール104を通じて修正されたキャラクタの動力学モデルデータと、修正又は追加された環境モデルデータを参照し、既存のキャラクタの動作データの入力を受けて動力学シミュレーションを通じて動力学動作データへの変換を行うものであって、即ち、既存に製作されたキャラクタの動作データと動力学動作制御データ(動力学モデルデータ)から動力学動作データに変換するものである。このとき、変換された動力学動作データは、動力学的分節のフレーム別の入力力、入力トルク、結果位置、結果方位、結果線速度、結果角速度、衝突関連イベントのうちの少なくとも1つを含むことができる。
そして、動作編集モジュール108は、既存キャラクタの動作データと、動力学動作変換モジュール106から新しく生成された動力学動作データを合成したり、それぞれ編集してキャラクタの動作データは動力学動作変換モジュール106に伝達し、動力学動作データはロボット動作制御モジュール110に提供する。
ロボット動作制御モジュール110は、動力学動作変換モジュール106から新しく生成された動力学動作データを参照して連結されるロボットの各関節モータに適当なトルク値、即ち、実験により既に設定されたトルク値を入力してロボットを制御する。
図2は、本発明の実施形態による動力学基盤動作生成装置の動作手順を示すフローチャートである。
図2を参照すると、202段階で動力学基盤動作生成装置100は、キャラクタモデルデータを生成してこれを動力学モデル変換モジュール102に入力するためのものであって、作業する対象キャラクタの関節と分節とで構成される骨格構造データと、骨格を覆うキャラクタの皮膚メッシュデータと、骨格構造と皮膚メッシュを連結して関節や分節の移動時に皮膚メッシュが連動して変形するように指定するリギングデータをまず生成する。
このように生成されたキャラクタの骨格構造、皮膚メッシュ、リギングデータを含むキャラクタモデルデータを用いてキャラクタの動作データを生成し、キャラクタの動作データはキーフレーミングや運動学的動作制御方法を活用して生成できる。
その後、204段階で動力学モデル変換モジュール102ではこのようなキャラクタモデルデータの入力を受けて、その後の206段階で動力学シミュレーションのためのキャラクタ動力学モデルデータに変換して出力する。キャラクタ動力学モデルデータは、骨格構造(データ)の分節に該当する動力学的分節データと骨折構造の関節に該当する動力学的関節データとで構成される。
ここで、動力学的分節データは、位置、方位、大きさ、質量、慣性、密度、メッシュ、連結された動力学的関節のリストデータで構成され、動力学的関節データは、位置、種類(Hinge、Universal、Sperical)、運動制限範囲、最大トルク、連結された動力学的分節のリストデータで構成されることができる。
動力学的分節の位置、方位、大きさはキャラクタの骨格構造と皮膚メッシュとリギングデータをいずれも参照して自動で計算され得る。皮膚メッシュとリギングデータがない場合であっても基本的な厚さ情報を与えて自動計算され得るようにし、このような自動計算データは、後に手動で修正可能である。一般に、骨格構造の分節の位置と方位が動力学的分節の位置と方位になり得るが、必ずしもそれには限らない。
図3は、本発明の実施形態による動力学基盤動作生成装置の動力学モデル変換モジュールで生成された馬(Horse)キャラクタの動力学モデルデータを示す図であり、図4は、動力学基盤動作生成装置の動力学動作変換モジュールで馬キャラクタの動力学動作データと参照された動作データを示す図である。
図3及び図4を参照すると、馬キャラクタモデルの下脚((Lower Leg)304、404や下腕(Lower Arm)302、402は、分節が連結されたメッシュの中央に位置して分節と動力学的分節の位置がほぼ同一になる。しかし、腹と連結された背骨(Spine)部分300、400を詳察すると、腹が下に垂れ過ぎて背骨にある分節の位置と連結された腹まで含む動力学的分節の位置とが互いに異なるようになることを確認することができる。動力学的分節の質量は、キャラクタ全体の大きさに対して該当分節の大きさの比率に適当な値に指定された定数値を掛けた値に設定される。
動力学的分節の慣性は、皮膚メッシュとリギングデータから自動計算され得る。動力学的分節の密度は、該当部分に骨のように稠密な組織が多ければ高くし、肉しかなければ低くする形態で調整する。
図3の馬キャラクタモデルの場合、頭や下腕は密度を高くし、腹と連結された背骨部分は密度を低くする。動力学分節のメッシュは、動力学シミュレーションで他の分節や物体間の衝突処理のために該当皮膚メッシュを簡単にボックスや円筒(CylinDer)状に指定する。図3において、馬キャラクタモデルの場合、速い衝突処理の計算のためにいずれもボックスに指定した。
まず、動力学的関節の位置は、骨格構造の関節の位置と一致させる。動力学的関節の種類は、関節の自由度に応じて指定する。動力学的関節の最大トルクは、出力できる最大トルク値の上限線を指定する。これは、基本的に動力学的関節に連結された動力学的分節の大きさデータを参照して計算できる。
人間(Human)キャラクタモデルの場合、ひざ(Knee)関節に連結された上脚(Upper Leg)と下脚((Lower Leg)の大きさが大きく、指(Finger)関節に連結された指分節の大きさが小さいので、ひざ関節の最大トルク値が指関節の最大トルク値よりも大きく設定される。アニメータの便利性のために、動力学モデル変換モジュール102で変換される動力学モデルの全てのデータを自動で計算して指定できるようにする。
一方、208段階で動力学モデル制御モジュール104は、動力学モデル変換モジュール102から変換された動力学モデルの細部データを手動で修正する作業と、210段階で環境モデルを新しく生成したり、変更したりする作業を行う。動力学的分節の質量や動力学的関節の最大トルクは全体的な大きさを調整することが可能である。例えば、馬モデルの全体質量を初期の100Kgから500Kgへ上方修正すれば、各動力学分節の質量も5倍増加させる。
動力学的関節の最大トルクが高く設定されるほど瞬間的に高いトルク値を許容し、これは動力学シミュレーションでキャラクタの動作データとほぼ同じ動力学動作データを生成することが可能になる。動力学的関節の最大トルクが低く設定されれば、瞬間的に出力できるトルク値が低くなり、キャラクタの動力学動作データで動作データに付いて行けなくなることもある。このような低いトルクの効果は健康でない人間が健康な人間の活動的な動作を追随する際に発生する動作の差により確認が可能である。
より現実感のある動力学動作の生成は、動力学関節の最大トルクをいかに設定するかに大きく依存していると言える。動力学関節の適当な最大トルクは簡単には分かり難いが、モーションキャプチャ動作データを動力学動作データに変換したとき、ほぼ類似に付いていくようにする最大トルク値を求める経験を通じて習う方法が勧められる。
しかし、常に正常な最大トルク値のみ必要なわけではなく、人間モデルをスーパーマンに設定する必要がある場合には最大トルク値を一般値より何倍も高くする。ジャンプする時と同じ動作で一般の人間モデルは1m跳ね上がるが、スーパーマンは10m跳ね上がるようにすることができる。
ほぼ全てのキャラクタモデルは環境に依存して動作を行う。人間キャラクタや馬キャラクタはいずれも地面上を歩いたり、他のキャラクタとぶつかったりすると、反発力を受け、再び力を与える過程を通じて動作を行う。キャラクタの動力学動作のために、力をやりとりする適切な環境モデルが必要である。
これにより、動力学モデル制御モジュール104は、210段階で地面(Ground)や傾斜面(Slope)、階段(Stairs)のような環境モデルを生成し、再び環境モデルの大きさや位置や方位などを調整する作業を行う。
そして、212段階で動力学動作変換モジュール106は、214段階で動作データの入力を受け、動力学モデル変換モジュール102を通じて出力された動力学モデルデータ又は動力学モデル制御モジュール104に基づいて修正された動力学モデルデータと、環境モデルデータを参照する動力学シミュレーションを行って、216段階でキャラクタの動作データを動力学動作データに変換して出力する。
ただし、変換された動力学動作データに変化が必要であれば、動力学モデル制御モジュール104で動力学的関節データの動力学的関節の最大トルクなどを修正し、これを動力学動作変換モジュール106に入力した後、再び動力学シミュレーションを行って動力学動作データに変換されたデータを出力する。このとき、動力学シミュレーションは様々な制約条件(Constraint)の入力を受け、重力と摩擦力などが全体的な制約条件として入力される。
そして、キャラクタの動作データで指定された各分節の位置、速度、加速度に応じて動力学モデルの動力学的分節の位置、速度、加速度の制約条件が決定される。動力学方程式を解析(Analysis)的に解くか、繰り返し(Recursive)的に解いて全ての制約条件を満足する各動力学的分節のトルク値を計算し、指定された最大トルク値以下に切り捨てられたトルク値を通じて行われた結果を動力学動作データとして記録する。このとき、動力学動作データは、各動力学分節の入力力、入力トルクと結果位置、結果方位、結果線速度、結果角速度と衝突関連イベントデータを含むことができる。
その後、動作編集モジュール108では218段階でキャラクタの動作データと動力学動作データの入力を受けて、2つの動作データを編集して修正された動作データを出力する。
全てのキャラクタアニメーションで動力学動作データの全部がそのまま用いられる場合は殆どない。アニメータの想像力を表現するために、動力学動作データは材料として用いられるだけである。動力学動作データは、一部分が使用されるか、アニメータにより細部的に修正される編集過程を経るようになる。
その後、220段階でロボット動作制御モジュール110は、準備されたキャラクタの動力学動作データの入力を受けて調整過程を経てロボットの制御に必要なロボットの各関節に位置するモータに指定するトルク値を出力する。
前記のような手順を例えて説明すれば、現実世界でロボットが用意されるとき、ロボットの形態を分析してキャラクタモデルデータを生成し、生成されたキャラクタモデルデータは動力学モデル変換モジュール102を通じて動力学モデルデータに変換される。
キャラクタの動作データは、キャラクタモデルデータを参照して生成される。ロボットキャラクタの動作は、既存のアニメーションツールを通じて容易に生成する。その後、ロボットキャラクタの動力学モデルデータと生成されたキャラクタの動作データを参照して動力学動作変換モジュール106でロボットキャラクタの動力学動作データを生成する。
動力学動作データは、動力学的関節に加えられるトルク値を有しているが、この値をロボットにそのまま適用することはできない。これにより、ロボット動作制御モジュール110では動力学動作データで動力学的関節が有するトルク値の入力を受けてこれに補正(Compensation)値を掛けた結果のトルク値をロボットの該当関節モータに出力する。各動力学的関節の補正値は、ロボットに用いられたモータ毎に異なるので、実験により値を求めることができる。
以上説明した通り、本発明の実施形態による動力学基盤動作生成装置及び方法は、動力学的動作制御方法を活用して既存の方法で生成された動作の全体的な形態は保持しながらも、細部的に物理法則が適用される自然な移動を保障するものであって、また本発明は動力学シミュレーションを導入してアニメータが生成した動作データを客観的な物理法則を満足する動作データに補正する方案を提示する。
そして、本発明による動力学基盤動作生成装置及び方法は、コンピュータプログラムで作成可能である。このコンピュータプログラムを構成するコード及びコードセグメントは当該分野のコンピュータプログラマにより容易に推論され得る。また、該当コンピュータプログラムは、コンピュータが読み取れる情報格納媒体(computer readable media)に格納され、コンピュータによって読み取られ、実行されることによって、動力学基盤動作生成方法を実現する。情報格納媒体は、磁気記録媒体、光記録媒体及びキャリアウェーブ媒体を含む。
一方、本発明の詳細な説明では具体的な実施形態について説明したが、本発明の範囲から逸脱しない範囲内で様々な変形が可能であることはもちろんである。従って、本発明の範囲は説明された実施形態に限定されず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等なものにより定められなければならない。
100 動力学基盤動作生成装置
102 動力学モデル変換モジュール
104 動力学モデル制御モジュール
106 動力学動作変換モジュール
108 動作編集モジュール
110 ロボット動作制御モジュール
202 キャラクタモデルデータの入力
204 動力学モデル変換を実行
206 キャラクタ動力学モデルデータの出力
208 動力学モデルの制御を実行
210 環境モデルデータの修正/追加
212 動力学動作の変換を実行
214 キャラクタ動作データの入力
216 キャラクタ動力学動作データの出力
218 動作の編集を実行
220 ロボット動作の制御を実行
300 腹と連結された背骨部分
302 馬キャラクタモデルの下腕
304 馬キャラクタモデルの下脚
400 腹と連結された背骨部分
402 馬キャラクタモデルの下腕
404 馬キャラクタモデルの下脚

Claims (20)

  1. 動力学基盤動作生成装置であって、
    コンピュータ装置に入力されたキャラクタモデルデータを動力学シミュレーションが可能なキャラクタの動力学モデルデータに変換する動力学モデル変換部と、
    前記動力学モデルデータを修正し、環境モデルを追加又は修正する動力学モデル制御部と、
    前記キャラクタモデルデータを用いて生成されたキャラクタの動作データに前記動力学モデルデータと前記環境モデルを参照して動力学シミュレーションを通じて動力学動作データに変換する動力学動作変換部と、
    前記動力学動作データと前記キャラクタの動作データを編集する動作編集部と、
    前記動力学動作データを参照して連結されるロボットの各関節モータに既に設定されたトルク値を入力してロボットを制御するロボット動作制御部と
    を含むことを特徴とする動力学基盤動作生成装置。
  2. 前記動力学動作変換部は、
    前記キャラクタの動作データに付いて行くように分節の位置、速度、加速度制約条件を追加し、
    前記動力学モデルデータの動力学的関節データで運動制限範囲を満足する制約条件を追加し、動力学的分節データで最大トルクの制約条件を追加する動力学シミュレーションを通じて前記動力学動作データに変換することを特徴とする請求項1に記載の動力学基盤動作生成装置。
  3. 前記動力学的関節データは、
    位置、関節の種類、運動制限範囲、最大トルク、連結された動力学的分節のリストのうちの少なくとも1つを含むことを特徴とする請求項2に記載の動力学基盤動作生成装置。
  4. 前記動力学的分節データは、
    位置、方位、大きさ、質量、慣性、密度、メッシュ、連結された動力学的関節のリストのうちの少なくとも1つを含むことを特徴とする請求項2に記載の動力学基盤動作生成装置。
  5. 前記質量はキャラクタ全体の大きさに対して該当分節の大きさの比率に既に設定された定数値を掛けて設定し、
    前記慣性は前記キャラクタモデルデータの皮膚メッシュ及びリギングデータから算出し、
    前記メッシュはボックス或いは円筒状に処理することを特徴とする請求項4に記載の動力学基盤動作生成装置。
  6. 前記動力学モデル制御部は、
    前記動力学モデルデータの動力学的関節データの最大トルク値を制御して動力学動作の変換程度を制御することを特徴とする請求項1に記載の動力学基盤動作生成装置。
  7. 前記動力学モデル制御部は、
    キャラクタの動作環境に基づいて前記環境モデルを生成し、生成された環境モデルの大きさ、位置及び方位のうちの少なくとも1つを修正して前記動力学動作変換部に伝達することを特徴とする請求項1に記載の動力学基盤動作生成装置。
  8. 前記キャラクタの動作データは、
    前記キャラクタモデルデータを用いてキーフレーミング又は運動学的動作制御方式を通じて生成することを特徴とする請求項1に記載の動力学基盤動作生成装置。
  9. 前記キャラクタモデルデータは、
    キャラクタの骨格構造、皮膚メッシュ、リギングデータのうちの少なくとも1つを含むことを特徴とする請求項1に記載の動力学基盤動作生成装置。
  10. 前記動力学動作データは、
    動力学的分節のフレーム別の入力力、入力トルク、結果位置、結果方位、結果線速度、結果角速度、衝突関連イベントのうちの少なくとも1つを含むことを特徴とする請求項1に記載の動力学基盤動作生成装置。
  11. 動力学基盤動作生成方法であって、
    コンピュータ装置に入力されたキャラクタモデルデータを動力学シミュレーションが可能な動力学モデルデータに変換する過程と、
    前記生成された動力学モデルデータを修正し、環境モデルを追加又は修正する過程と、
    前記キャラクタモデルデータを用いて生成されたキャラクタの動作データに前記動力学モデルデータと環境モデルを参照して動力学シミュレーションを通じて動力学動作データに変換する過程と、
    前記動力学動作データと前記動作データを編集する過程と、
    前記動力学動作データを参照して連結されるロボットの各関節モータに既に設定されたトルク値を入力してロボットを制御する過程と
    を含むことを特徴とする動力学基盤動作生成方法。
  12. 前記動力学動作データに変換する過程は、
    前記キャラクタの動作データに付いて行くように分節の位置、速度、加速度制約条件を追加する過程と、
    前記動力学モデルデータの動力学的関節データで運動制限範囲を満足する制約条件を追加し、動力学的分節データで最大トルクの制約条件を追加する動力学シミュレーションを通じて前記動力学動作データに変換する過程と
    を含むことを特徴とする請求項11に記載の動力学基盤動作生成方法。
  13. 前記動力学的関節データは、
    位置、関節の種類、運動制限範囲、最大トルク、連結された動力学的分節のリストのうちの少なくとも1つを含むことを特徴とする請求項11に記載の動力学基盤動作生成方法。
  14. 前記動力学的分節データは、
    位置、方位、大きさ、質量、慣性、密度、メッシュ、連結された動力学的関節のリストのうちの少なくとも1つを含むことを特徴とする請求項11に記載の動力学基盤動作生成方法。
  15. 前記質量はキャラクタ全体の大きさに対して該当分節の大きさの比率に既に設定された定数値を掛けて設定し、
    前記慣性は前記キャラクタモデルデータの皮膚メッシュ及びリギングデータから算出し、
    前記メッシュはボックス或いは円筒状に処理することを特徴とする請求項14に記載の動力学基盤動作生成方法。
  16. 前記修正する過程は、
    前記動力学モデルデータの動力学的関節データの最大トルク値を修正して動力学動作の変換程度を制御することを特徴とする請求項11に記載の動力学基盤動作生成方法。
  17. 前記修正する過程は、
    キャラクタの動作環境に基づいて前記環境モデルを生成する過程と、
    前記生成された環境モデルの大きさ、位置及び方位のうちの少なくとも1つを修正する過程と
    を含むことを特徴とする請求項11に記載の動力学基盤動作生成方法。
  18. 前記キャラクタの動作データは、
    前記キャラクタモデルデータを用いてキーフレーミング又は運動学的動作制御方式を通じて生成することを特徴とする請求項11に記載の動力学基盤動作生成方法。
  19. 前記キャラクタモデルデータは、
    キャラクタの骨格構造、皮膚メッシュ、リギングデータのうちの少なくとも1つを含むことを特徴とする請求項11に記載の動力学基盤動作生成方法。
  20. 前記動力学動作データは、
    動力学的分節のフレーム別の入力力、入力トルク、結果位置、結果方位、結果線速度、結果角速度、衝突関連イベントのうちの少なくとも1つを含むことを特徴とする請求項11に記載の動力学基盤動作生成方法。
JP2010141651A 2009-12-02 2010-06-22 動力学基盤動作生成装置及び方法 Pending JP2011115933A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0118622 2009-12-02
KR1020090118622A KR101098834B1 (ko) 2009-12-02 2009-12-02 동역학 기반 동작 생성 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2011115933A true JP2011115933A (ja) 2011-06-16

Family

ID=44068527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010141651A Pending JP2011115933A (ja) 2009-12-02 2010-06-22 動力学基盤動作生成装置及び方法

Country Status (3)

Country Link
US (1) US20110128292A1 (ja)
JP (1) JP2011115933A (ja)
KR (1) KR101098834B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016154845A (ja) * 2015-02-24 2016-09-01 ディズニー エンタープライゼス インコーポレイテッド アニメーション・キャラクターに合致する動きを得るためのロボットを開発および制御する方法。
KR20170135624A (ko) * 2016-05-31 2017-12-08 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990754B1 (en) 2014-02-04 2018-06-05 Electronic Arts Inc. System for rendering using position based finite element simulation
KR102252730B1 (ko) 2015-02-06 2021-05-18 한국전자통신연구원 애니메이션 생성 장치 및 방법
CN104599293B (zh) * 2015-02-06 2017-07-07 清华大学 烟熏壁画动态形成过程的模拟方法
US10388053B1 (en) 2015-03-27 2019-08-20 Electronic Arts Inc. System for seamless animation transition
US10022628B1 (en) * 2015-03-31 2018-07-17 Electronic Arts Inc. System for feature-based motion adaptation
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
KR102459677B1 (ko) 2015-11-05 2022-10-28 삼성전자주식회사 알고리즘 학습 방법 및 장치
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US10403018B1 (en) 2016-07-12 2019-09-03 Electronic Arts Inc. Swarm crowd rendering system
US10726611B1 (en) 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
US10275921B2 (en) * 2016-09-30 2019-04-30 Electronic Arts, Inc. Computer architecture for animation of a model in a simulation
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
CN107294838B (zh) * 2017-05-24 2021-02-09 腾讯科技(深圳)有限公司 社交应用的动画生成方法、装置、系统以及终端
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10535174B1 (en) 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
US10860838B1 (en) 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
CN108196488A (zh) * 2018-03-06 2018-06-22 上海木爷机器人技术有限公司 一种机器人的运动控制系统及方法
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
KR102251977B1 (ko) * 2019-11-18 2021-05-14 주식회사 인공지능연구원 아바타 동작 저작 장치 및 방법
US11361467B2 (en) 2019-11-22 2022-06-14 Adobe Inc. Pose selection and animation of characters using video data and training techniques
US11282257B2 (en) * 2019-11-22 2022-03-22 Adobe Inc. Pose selection and animation of characters using video data and training techniques
US11972353B2 (en) 2020-01-22 2024-04-30 Electronic Arts Inc. Character controllers using motion variational autoencoders (MVAEs)
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
CN116507276A (zh) * 2020-09-11 2023-07-28 爱荷华大学研究基金会 用于机器学习以从图像分析肌肉骨骼康复的方法和设备
US11830121B1 (en) 2021-01-26 2023-11-28 Electronic Arts Inc. Neural animation layering for synthesizing martial arts movements
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US11670030B2 (en) 2021-07-01 2023-06-06 Electronic Arts Inc. Enhanced animation generation based on video with local phase
US11562523B1 (en) 2021-08-02 2023-01-24 Electronic Arts Inc. Enhanced animation generation based on motion matching using local bone phases
CN114091157B (zh) * 2021-11-24 2024-04-30 中国电力工程顾问集团东北电力设计院有限公司 基于Dynamo的钢网架柱建模方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584679A (ja) * 1990-12-25 1993-04-06 Kongouzen Souhonzan Shiyourinji ロボツト・プログラミング方法
JP2008036761A (ja) * 2006-08-04 2008-02-21 Toyota Motor Corp 動作データ作成装置及びその方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5586224A (en) * 1990-12-25 1996-12-17 Shukyohojin, Kongo Zen Sohonzan Shorinji Robot or numerical control programming method
WO2003099119A1 (fr) * 2002-05-29 2003-12-04 Japan Science And Technology Agency Procede de calcul de mecanique corporelle, modele de mecanique corporelle, donnees de modele et procede de production d'un modele corporel
KR100697975B1 (ko) 2005-12-07 2007-03-23 한국전자통신연구원 인간형 다관절체의 애니메이션 생성 장치 및 그 방법
US8396595B2 (en) * 2007-11-01 2013-03-12 Honda Motor Co., Ltd. Real-time self collision and obstacle avoidance using weighting matrix

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0584679A (ja) * 1990-12-25 1993-04-06 Kongouzen Souhonzan Shiyourinji ロボツト・プログラミング方法
JP2008036761A (ja) * 2006-08-04 2008-02-21 Toyota Motor Corp 動作データ作成装置及びその方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016154845A (ja) * 2015-02-24 2016-09-01 ディズニー エンタープライゼス インコーポレイテッド アニメーション・キャラクターに合致する動きを得るためのロボットを開発および制御する方法。
KR20170135624A (ko) * 2016-05-31 2017-12-08 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법
KR101885746B1 (ko) 2016-05-31 2018-08-06 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법

Also Published As

Publication number Publication date
US20110128292A1 (en) 2011-06-02
KR101098834B1 (ko) 2011-12-26
KR20110062044A (ko) 2011-06-10

Similar Documents

Publication Publication Date Title
JP2011115933A (ja) 動力学基盤動作生成装置及び方法
JP6227683B2 (ja) アニメーション・キャラクターに合致する動きを得るためのロボットを開発および制御する方法。
Zordan et al. Mapping optical motion capture data to skeletal motion using a physical model
Shapiro Building a character animation system
JP2003231077A (ja) 人型リンク系の運動生成方法
CN111223171A (zh) 图像处理方法、装置、电子设备及存储介质
KR20200069786A (ko) 리깅 캐릭터를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법
Papagiannakis et al. Transforming medical education and training with vr using mages
Feng et al. Fast, automatic character animation pipelines
Kolkmeier et al. An asap realizer-unity3d bridge for virtual and mixed reality applications
JP2004030502A (ja) シミュレーション方法、シミュレーション装置およびシミュレーションプログラム
Hwang et al. Editing and Synthesizing Two‐Character Motions using a Coupled Inverted Pendulum Model
Oore et al. Local physical models for interactive character animation
KR100697975B1 (ko) 인간형 다관절체의 애니메이션 생성 장치 및 그 방법
JP2009166172A (ja) ロボットのシミュレーション方法及びロボットのシミュレーション装置
Liu et al. Natural user interface for physics-based character animation
KR20170078269A (ko) 휴머노이드 로봇과 그 모션 제어 방법 및 이를 수행하기 위한 장치
JP5464406B2 (ja) 姿勢データ入力装置
Martin et al. Interactive quadruped animation
Bar-Lev et al. Virtual marionettes: a system and paradigm for real-time 3D animation
Han et al. Physics‐based trajectory optimization with automatic time warping
Ryoo Development of child-sized humanoid robot for dance performance
US20230306667A1 (en) Procedural animation engine and editor for sample-based design of stylized walking gaits for bipedal robots
JP6933758B1 (ja) 情報処理プログラム、情報処理装置及び情報処理方法
Grecu et al. A virtual system for simulation of human upper limb

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121102