JP2010527086A - キャラクタシミュレーション方法およびシステム - Google Patents
キャラクタシミュレーション方法およびシステム Download PDFInfo
- Publication number
- JP2010527086A JP2010527086A JP2010508276A JP2010508276A JP2010527086A JP 2010527086 A JP2010527086 A JP 2010527086A JP 2010508276 A JP2010508276 A JP 2010508276A JP 2010508276 A JP2010508276 A JP 2010508276A JP 2010527086 A JP2010527086 A JP 2010527086A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- character
- controller
- displacement
- simulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D57/00—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
- B62D57/02—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
- B62D57/032—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40316—Simulation of human-like robot joint, restricted 3-D motion
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】 キャラクタシミュレーション方法は、変位マッピングおよび比例微分制御(PD制御)を用いてモーションデータを最適化するステップと、最適化されたモーションデータを用いてコントローラを学習し、キャラクタの行動を制御するステップとを含む。このとき、変位マッピングおよびPD制御を用いてモーションデータを最適化するステップは、入力モーションおよび変位パラメータ間の変位マッピングによってターゲットモーションを生成するステップと、ターゲットモーションおよび目的関数を用いてシミュレーションモーションを生成するステップとを含むことができる。最適化されたモーションデータを用いてコントローラを学習するステップは、キャラクタの現在状態と近いデータサンプルを探し出すステップと、サンプルに含まれた結果ポーズを結合してターゲットポーズを計算することができるコントローラを生成するステップと、モーションデータおよび変位マッピングを用いてコントローラを改良するステップとを含むことができる。コントローラは、静的コントローラと静的コントローラ間の遷移を可能にする遷移コントローラを含むことができる。
【選択図】 図6
Description
物理的にシミュレーションされた仮想世界において、二足歩行のキャラクタが動作するようにすることは、コンピュータアニメーション、ロボット工学、生物力学などにおいて重要な論点である。制御理論および機械学習などから歩行やバランスのようなそれぞれの個別的な人間行動を物理的にシミュレーションするコントローラを設計するために、多くの技術が採用された。
本発明は、人間の行動からキャプチャされたモーションデータを用いて、点、線、面、または立体などの図形で構成された動的モデル、特に二足のキャラクタの行動を学習するキャラクタシミュレーション方法およびシステムに関する。
比例微分制御(PD制御)のような簡単な追跡方法は、動的モデルが実際の人間の骨組みとは物理的に差があるため、記録されたモーションデータによって動的モデルを生成することはできない。このような動的モデルは、実際の人間が変形可能な筋肉、肌、または複雑な関節を有することに比べ、低い自由度、剛性リンク、または非現実的な回転関節を有している。
入力モーションm(t)が(θ1(t)、…、θn(t))のように与えられたとき、キャラクタシミュレーションシステムは、修正されたターゲットモーション(数1-1)を下記の数1のようなモーションに対する変位マッピング101を用いて示すことができる。このとき、tは任意の時刻、nは二足のキャラクタが有する関節の数を意味する。すなわち、(θ1(t)、…、θn(t))はt時刻に関節が有する角度の配列である。
モーション変位は、上記の数2に示すように、三角基底関数の加重和で示すことができる。このとき、三角基底関数は、グラフ201のように足のスタンス区間202およびスイング区間203と同期化された時間軸に位置することができる。また、m個のノードポイント{c1、…、cm}は、不規則な間隔で位置し、それぞれのノードポイントは、スタンス区間202の出発点204およびキックダウン地点(kickdown point)205と一致したり、スイング区間203の中間地点206と一致する。
モーションデータを最適化する目的関数は、多くの局部的最小値(local minima)を有する。グラフ300は、2つの変更された変位パラメータに対する目的関数のサンプリングを示しており、変位パラメータは足首の変位高さと膝の変位高さに対応する。このとき、目的関数において幅が狭く屈折した谷間形状のために最適化が困難になる。
II.行動制御(Behavior Control)
キャラクタシミュレーションシステムは、二足のキャラクタを生成することができ、キャラクタは動的にシミュレーションされ、ユーザーによってリアルタイムに制御されることができる統合されたモータースキルを備えることができる。このため、キャラクタは歩行、跳躍、バランスなどのような行動に対するモーター制御を学習することができ、モーションデータは、キャラクタのために改善することができる。
コントローラ学習とは、実際の人間のモーションに対する観察から与えられた任意の状態に必要な動作を推察する課程である。このとき、観察は、状態−動作軌道の集合として格納することができる。それぞれの状態−動作のペアは、実際の人間がt時刻の状態からt+Δt時刻のポーズにどのように動いたかに対して記述することができる。
キャラクタをシミュレーションするための特性ベクトルF(t)が与えられれば、コントローラは、トレーニングデータの復帰のために次時間インスタンスのターゲットポーズP(t+Δt)を決定する。このとき、コントローラは、近い順序でk個の隣接するサンプル(数6-1)を検索し、距離に反比例する加重値によって、サンプルで連結されたポーズを結合する。このとき、ターゲットポーズは、下記の数6のように示すことができる。
このような問題を解決するために、コントローラの適切な改善が必要となる。基本戦略は、シミュレータでコントローラを駆動させることによって、コントローラをテストすることである。もし、キャラクタが転倒したり、トレーニングデータの集合から過度に逸脱すれば、キャラクタが失敗の状況を避けることができるように、トレーニングデータの集合に新たな状態−動作の軌道を追加することができる。
手抜き
キャラクタシミュレーションシステムは、変形された軌道が物理的に実行可能なように新たな軌道をトレーニングデータの集合に追加するため、上述した最適化プロセスを運用することができる。トレーニングデータに新たに追加された軌道は、回帰過程においてキャラクタが転倒しないようにする。このような方法によって、キャラクタシミュレーションシステムは、これ以上の失敗の状況が発生しないときまでコントローラを漸増的に改善することができる。
2つの静的コントローラ(または周期的(cyclic)コントローラ)が与えられれば、キャラクタシミュレーションシステムは、静的コントローラ間に遷移コントローラを用いることができる。このとき、遷移コントローラは、十分なトレーニングデータの集合が利用可能なとき、静的コントローラを用いるのと同じ方法で用いることができる。
ステップS610において、キャラクタシミュレーションシステムは、変位マッピングおよびPD制御を用いてモーションデータを最適化する。このとき、ステップS610は、図6に示すように、ステップS611〜ステップS613を含むことができる。
キャラクタシミュレーションシステムは、キャラクタに対する新たな状態が与えられれば、トレーニングデータの集合からその状態と近いサンプルを選択し、サンプルに含まれた結果ポーズを回帰を用いて結合してターゲットポーズを計算することができる。
モーション変位の配列は、所定の鐘形基底関数がオーバーラップするように時間軸に沿って移動するウィンドウを用いて最適化されることができる。このとき、ウィンドウは、モーションデータのロングクリップに対するシーケンスの一部分をカバーして最適化モーションフレームを分離することができる。
Claims (33)
- キャラクタシミュレーション方法であって、
変位マッピングおよび比例微分制御を用いてモーションデータを最適化するステップと、
前記最適化されたモーションデータを用いてコントローラを学習し、キャラクタのモーションを制御するステップと、
を含むキャラクタシミュレーション方法。 - 前記最適化するステップは、
入力モーションおよび変位パラメータ間の前記変位マッピングによってターゲットモーションを生成するステップと、
前記ターゲットモーションおよび目的関数を用いてシミュレーションモーションを生成するステップと、
を含むことを特徴とする請求項1に記載のキャラクタシミュレーション方法。 - 前記モーションデータは、時間に応じて分離された少なくとも1つの前記入力モーションを含み、
前記最適化するステップは、
前記モーションデータが含むすべての入力モーションに対して、ターゲットモーションを生成するステップおよびシミュレーションモーションを生成するステップを繰り返して実行するステップ、
をさらに含むことを特徴とする請求項2に記載のキャラクタシミュレーション方法。 - 前記ターゲットモーションを生成するステップは、
前記入力モーションに前記変位パラメータによって生成されたモーション変位の配列を加え、前記ターゲットモーションを生成するステップであり、
前記モーション変位の配列のそれぞれの要素は、鐘形基底関数を用いて計算されることを特徴とする請求項2に記載のキャラクタシミュレーション方法。 - 前記ターゲットモーションおよび目的関数を用いてシミュレーションモーションを生成するステップは、
前記変位パラメータの初期値を選択し、互いに異なる変位パラメータの初期値に対して繰り返して局部的極値を探し、前記局部的極値のうちの最小値を前記目的関数の最小値として前記シミュレーションモーションを計算することを特徴とする請求項2に記載のキャラクタシミュレーション方法。 - 前記最適化方法は、滑降シンプレックス法であることを特徴とする請求項10に記載のキャラクタシミュレーション方法。
- 前記モーション変位の配列は、所定の数の基底関数がオーバーラップしながら時間軸に沿って移動するウィンドウを用いて最適化され、
前記ウィンドウは、前記モーションデータのロングクリップに対するシーケンスの一部分をカバーして最適化モーションフレームを分離することを特徴とする請求項2に記載のキャラクタシミュレーション方法。 - 前記最適化されたモーションデータを用いてコントローラを学習し、キャラクタの行動を制御する前記ステップは、
状態−動作軌道の集合を用いてコントローラ学習を実行するステップと、
前記モーションデータおよび前記変位マッピングを用いて前記コントローラを改善するステップと、
前記コントローラを用いて行動に対する状態間の遷移を制御するステップと、
を含むことを特徴とする請求項1に記載のキャラクタシミュレーション方法。 - 前記状態−動作軌道の集合を用いてコントローラ学習を実行するステップは、
前記キャラクタに対する新たな状態が与えらたときに、その状態と近い少なくとも1つのサンプルを選択するステップと、
前記サンプルに含まれた少なくとも1つの出力ポーズを結合してターゲットポーズを計算するステップと、
を含むことを特徴とする請求項13に記載のキャラクタシミュレーション方法。 - 前記近いサンプルは、モーションフレーム間の距離を用いて選択され、
前記モーションフレーム間の距離は、前記モーションフレームの特性を用いて測定されることを特徴とする請求項14に記載のキャラクタシミュレーション方法。 - 前記モーションフレームの特性は、(1)関節角度、(2)ルートノードの位置、速度、方向、(3)キャラクタ足の位置、速度、および(4)地面接触のうちの少なくとも1つを含み、
前記モーションフレーム間の距離は、前記モーションフレームの特性ベクトルF(t)の間の差を二乗し、加重値を付与し、加える方式で計算されることを特徴とする請求項15に記載のキャラクタシミュレーション方法。 - 前記モーションデータおよび変位マッピングを用いてコントローラを改善するステップは、
前記モーションデータが含むトレーニングデータの集合を用いて前記キャラクタの軌道をモニタリングするステップと、
前記キャラクタの軌道が前記トレーニングデータの集合による軌道を所定の基準以上逸脱する場合、失敗の状況として認識するステップと、
前記失敗の状況と認識した時に、前記キャラクタのモーションのうちで最も近いサイクルに全体システムをロールバックするステップと、
を含むことを特徴とする請求項13に記載のキャラクタシミュレーション方法。 - 前記モーションデータおよび変位マッピングを用いてコントローラを改善するステップは、
前記トレーニングデータの集合に新たな状態−動作の軌道を追加するステップと、
前記変位マッピングを用いて前記状態−動作の軌道を既存の軌道に混合するステップと、
をさらに含むことを特徴とする請求項18に記載のキャラクタシミュレーション方法。 - 前記コントローラは、所定の範囲内で前記キャラクタの状態に対する変化を制御する静的コントローラおよび前記静的コントローラ間の遷移を制御する遷移コントローラを含み、
前記コントローラを用いて行動に対する状態間の遷移を制御するステップは、
前記キャラクタがシミュレーションされる間、前記遷移コントローラのトレーニングデータセットが含むサンプルのうちで前記キャラクタの現在状態と最も近いサンプル間の距離を測定し、前記距離がユーザによって設定された閾値以下である場合、前記キャラクタのモーションを制御することを特徴とする請求項13に記載のキャラクタシミュレーション方法。 - 請求項1〜20のうちのいずれか一項の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
- キャラクタシミュレーションシステムであって、
変位マッピングおよび比例微分制御を用いてモーションデータを最適化するモーションデータ最適化部と、
前記最適化されたモーションデータを用いてコントローラを学習し、キャラクタの行動を制御するキャラクタ制御部と、
を備えるキャラクタシミュレーションシステム。 - 前記モーションデータ最適化部は、
入力モーションおよび変位パラメータ間の前記変位マッピングによってターゲットモーションを生成するターゲットモーション生成部と、
前記ターゲットモーションおよび目的関数を用いてシミュレーションモーションを生成するシミュレーションモーション生成部と、
を備えることを特徴とする請求項22に記載のキャラクタシミュレーションシステム。 - 前記モーションデータは、時間に応じて分離された少なくとも1つの前記入力モーションを含み、
前記モーションデータ最適化部は、
前記モーションデータが含むすべての入力モーションに対してターゲットモーション生成部および前記シミュレーションモーション生成部を繰り返して実行させる繰り返し部、
をさらに備えることを特徴とする請求項23に記載のキャラクタシミュレーションシステム。 - 前記ターゲットモーション生成部は、
前記入力モーションに前記変位パラメータによって生成されたモーション変位の配列を付加して前記ターゲットモーションを生成し、
前記モーション変位の配列のそれぞれの要素は、鐘形基底関数を用いて計算されることを特徴とする請求項23に記載のキャラクタシミュレーションシステム。 - 前記シミュレーションモーション生成部は、
前記変位パラメータの初期値を選択し、互いに異なる変位パラメータの初期値に対して繰り返して局部的極値を探し、前記局部的極値の値のうちの最小値を前記目的関数の最小値として前記シミュレーションモーションを計算することを特徴とする請求項23に記載のキャラクタシミュレーションシステム。 - 前記キャラクタ制御部は、
状態−動作軌跡の集合を用いてコントローラ学習を実行するコントローラ学習部と、
前記モーションデータおよび前記変位マッピングを用いて前記コントローラを改善するコントローラ改良部と、
前記コントローラを用いて行動に対する状態間の遷移を制御する遷移制御部と、
を備えることを特徴とする請求項22に記載のキャラクタシミュレーションシステム。 - 前記コントローラ学習部は、
次時間インスタンスに前記キャラクタに対する新たな状態が与えられた時に、その状態と近い少なくとも1つのサンプルを選択し、前記サンプルに含まれた少なくとも1つの出力ポーズを結合してターゲットポーズを計算することを特徴とする請求項27に記載のキャラクタシミュレーションシステム。 - 前記近いサンプルはモーションフレーム間の距離を用いて選択され、
前記モーションフレーム間の距離は、前記モーションフレームの特性を用いて測定されることを特徴とする請求項28に記載のキャラクタシミュレーションシステム。 - 前記モーションフレームの特性は、(1)関節角度、(2)ルートノードの位置、速度、方向、(3)キャラクタ足の位置、速度、および(4)地面接触のうちの少なくとも1つを含むことを特徴とする請求項29に記載のキャラクタシミュレーションシステム。
- 前記コントローラ改善部は、
前記モーションデータが含むトレーニングデータの集合を用いて前記キャラクタの軌道をモニタリングし、前記キャラクタの軌道が前記トレーニングデータの集合による軌道を所定の基準以上逸脱する場合、失敗の状況として認識し、前記失敗の状況と認識した時に、前記キャラクタのモーションのうちの最も近いサイクルに全体システムをロールバックすることを特徴とする請求項27に記載のキャラクタシミュレーションシステム。 - 前記コントローラ改善部は、
前記トレーニングデータの集合に新たな状態−動作の軌道を追加し、前記変位マッピングを用いて前記状態−動作の軌道を既存の軌道に混合することを特徴とする請求項31に記載のキャラクタシミュレーションシステム。 - 前記コントローラは、所定の範囲内で前記キャラクタの状態に対する変化を制御する静的コントローラおよび前記静的コントローラ間の遷移を制御する遷移コントローラを含み、
前記遷移制御部は、
前記キャラクタがシミュレーションされる間、前記遷移コントローラのトレーニングデータの集合が含むサンプルのうちで前記キャラクタの現在状態と最も近いサンプル間の距離を測定し、前記距離がユーザによって設定された閾値以下である場合、前記キャラクタのモーションを制御することを特徴とする請求項27に記載のキャラクタシミュレーションシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070073313A KR100856824B1 (ko) | 2007-07-23 | 2007-07-23 | 캐릭터 시뮬레이션 방법 및 시스템 |
KR10-2007-0073313 | 2007-07-23 | ||
PCT/KR2007/003557 WO2009014273A1 (en) | 2007-07-23 | 2007-07-24 | Method and system for simulating character |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010527086A true JP2010527086A (ja) | 2010-08-05 |
JP5059939B2 JP5059939B2 (ja) | 2012-10-31 |
Family
ID=40022505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010508276A Active JP5059939B2 (ja) | 2007-07-23 | 2007-07-24 | キャラクタシミュレーション方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8350861B2 (ja) |
JP (1) | JP5059939B2 (ja) |
KR (1) | KR100856824B1 (ja) |
WO (1) | WO2009014273A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170135624A (ko) * | 2016-05-31 | 2017-12-08 | (주) 젤리피쉬월드 | 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법 |
JP6295313B1 (ja) * | 2016-12-02 | 2018-03-14 | 株式会社ドワンゴ | 情報処理装置、情報処理方法およびプログラム |
KR20180114692A (ko) * | 2017-04-11 | 2018-10-19 | 재단법인대구경북과학기술원 | 행동모방학습 기반의 뇌 훈련 시뮬레이션시스템 |
WO2020071174A1 (ja) * | 2018-10-01 | 2020-04-09 | オムロン株式会社 | 学習装置、制御装置、学習方法、及び学習プログラム |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101586007B1 (ko) * | 2009-06-25 | 2016-01-21 | 삼성전자주식회사 | 데이터 처리 장치 및 방법 |
KR101691940B1 (ko) * | 2009-10-30 | 2017-01-02 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
JP5088972B2 (ja) * | 2010-06-11 | 2012-12-05 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、及び半導体装置 |
US8860732B2 (en) | 2010-09-27 | 2014-10-14 | Adobe Systems Incorporated | System and method for robust physically-plausible character animation |
KR101809972B1 (ko) * | 2010-12-21 | 2017-12-18 | 삼성전자주식회사 | 보행 로봇 및 그 제어방법 |
KR101789756B1 (ko) | 2010-12-29 | 2017-11-20 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
WO2012100080A2 (en) * | 2011-01-21 | 2012-07-26 | The Regents Of The University Of California | Systems for and methods of detecting and reproducing motions for video games |
US9322653B2 (en) * | 2013-01-16 | 2016-04-26 | Disney Enterprises, Inc. | Video-based motion capture and adaptation |
US9387588B1 (en) * | 2014-08-25 | 2016-07-12 | Google Inc. | Handling gait disturbances with asynchronous timing |
US9618937B1 (en) | 2014-08-25 | 2017-04-11 | Google Inc. | Slip detection using robotic limbs |
US10081098B1 (en) | 2014-08-25 | 2018-09-25 | Boston Dynamics, Inc. | Generalized coordinate surrogates for integrated estimation and control |
US9446518B1 (en) | 2014-11-11 | 2016-09-20 | Google Inc. | Leg collision avoidance in a robotic device |
US9499218B1 (en) | 2014-12-30 | 2016-11-22 | Google Inc. | Mechanically-timed footsteps for a robotic device |
US9594377B1 (en) * | 2015-05-12 | 2017-03-14 | Google Inc. | Auto-height swing adjustment |
KR101597940B1 (ko) * | 2015-07-09 | 2016-02-26 | 중앙대학교 산학협력단 | 아바타 동작 생성 방법 및 이를 수행하기 위한 컴퓨팅 디바이스 |
US9586316B1 (en) | 2015-09-15 | 2017-03-07 | Google Inc. | Determination of robotic step path |
US9789919B1 (en) | 2016-03-22 | 2017-10-17 | Google Inc. | Mitigating sensor noise in legged robots |
US11104001B2 (en) * | 2019-03-13 | 2021-08-31 | Sony Interactive Entertainment Inc. | Motion transfer of highly dimensional movements to lower dimensional robot movements |
KR102317949B1 (ko) * | 2020-02-10 | 2021-10-27 | 한국과학기술원 | 객체의 모션을 생성하는 방법 및 장치 |
US11407109B2 (en) | 2020-04-16 | 2022-08-09 | Boston Dynamics, Inc. | Global arm path planning with roadmaps and precomputed domains |
US11238634B2 (en) * | 2020-04-28 | 2022-02-01 | Adobe Inc. | Motion model refinement based on contact analysis and optimization |
KR102611126B1 (ko) | 2021-04-09 | 2023-12-06 | 한양대학교 산학협력단 | 강화학습모델을 이용한 보행 동작 정보 출력 방법 및 서비스 장치 |
KR20240008265A (ko) | 2022-07-11 | 2024-01-18 | 한양대학교 산학협력단 | 근골격계 모델에 기반 캐릭터의 모션 생성 방법 및장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078695A (ja) * | 2002-08-20 | 2004-03-11 | Japan Science & Technology Corp | アニメーション作成システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115052A (en) * | 1998-02-12 | 2000-09-05 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence |
US6950104B1 (en) * | 2000-08-30 | 2005-09-27 | Microsoft Corporation | Methods and systems for animating facial features, and methods and systems for expression transformation |
KR20020049384A (ko) * | 2000-12-19 | 2002-06-26 | 이형민 | 캐릭터 애니메이션 생성 시스템 및 이를 이용한 캐릭터애니메이션 생성 방법 |
JP4695275B2 (ja) | 2001-03-07 | 2011-06-08 | 独立行政法人科学技術振興機構 | 動画像生成システム |
KR100507780B1 (ko) * | 2002-12-20 | 2005-08-17 | 한국전자통신연구원 | 고속 마커프리 모션 캡쳐 장치 및 방법 |
KR100502092B1 (ko) | 2003-08-07 | 2005-07-20 | 한국전자통신연구원 | 진화론적 계산을 이용한 3차원 애니메이션 시스템 및 방법 |
WO2006020846A2 (en) * | 2004-08-11 | 2006-02-23 | THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory | Simulated locomotion method and apparatus |
KR100622811B1 (ko) * | 2004-11-04 | 2006-09-19 | 주식회사오뚜기 | 복분자 음료 및 그 제조방법 |
US7313463B2 (en) * | 2005-03-31 | 2007-12-25 | Massachusetts Institute Of Technology | Biomimetic motion and balance controllers for use in prosthetics, orthotics and robotics |
KR20070050509A (ko) * | 2005-11-11 | 2007-05-16 | 이문권 | 동작 패턴 판단, 합성과 전이법1 |
WO2007066953A1 (en) * | 2005-12-08 | 2007-06-14 | Electronics And Telecommunications Research Institute | Apparatus for recognizing three-dimensional motion using linear discriminant analysis |
US7864181B1 (en) * | 2006-06-08 | 2011-01-04 | Pixar | Shape friction: shape preservation of simulated objects in computer animation |
US7949498B2 (en) * | 2006-10-02 | 2011-05-24 | University Of Virginia Patent Foundation | Method, system and computer program product for registration of multi-dimensional datasets |
-
2007
- 2007-07-23 KR KR1020070073313A patent/KR100856824B1/ko not_active IP Right Cessation
- 2007-07-24 WO PCT/KR2007/003557 patent/WO2009014273A1/en active Application Filing
- 2007-07-24 JP JP2010508276A patent/JP5059939B2/ja active Active
- 2007-07-24 US US12/311,829 patent/US8350861B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078695A (ja) * | 2002-08-20 | 2004-03-11 | Japan Science & Technology Corp | アニメーション作成システム |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170135624A (ko) * | 2016-05-31 | 2017-12-08 | (주) 젤리피쉬월드 | 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법 |
KR101885746B1 (ko) | 2016-05-31 | 2018-08-06 | (주) 젤리피쉬월드 | 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법 |
JP6295313B1 (ja) * | 2016-12-02 | 2018-03-14 | 株式会社ドワンゴ | 情報処理装置、情報処理方法およびプログラム |
JP2018092348A (ja) * | 2016-12-02 | 2018-06-14 | 株式会社ドワンゴ | 情報処理装置、情報処理方法およびプログラム |
KR20180114692A (ko) * | 2017-04-11 | 2018-10-19 | 재단법인대구경북과학기술원 | 행동모방학습 기반의 뇌 훈련 시뮬레이션시스템 |
KR102014176B1 (ko) * | 2017-04-11 | 2019-08-26 | 재단법인대구경북과학기술원 | 행동모방학습 기반의 뇌 훈련 시뮬레이션시스템 |
WO2020071174A1 (ja) * | 2018-10-01 | 2020-04-09 | オムロン株式会社 | 学習装置、制御装置、学習方法、及び学習プログラム |
JP2020057161A (ja) * | 2018-10-01 | 2020-04-09 | オムロン株式会社 | 学習装置、制御装置、学習方法、及び学習プログラム |
JP7110884B2 (ja) | 2018-10-01 | 2022-08-02 | オムロン株式会社 | 学習装置、制御装置、学習方法、及び学習プログラム |
US11971709B2 (en) | 2018-10-01 | 2024-04-30 | Omron Corporation | Learning device, control device, learning method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
US8350861B2 (en) | 2013-01-08 |
US20100277483A1 (en) | 2010-11-04 |
WO2009014273A1 (en) | 2009-01-29 |
JP5059939B2 (ja) | 2012-10-31 |
KR100856824B1 (ko) | 2008-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5059939B2 (ja) | キャラクタシミュレーション方法およびシステム | |
Song et al. | Deep reinforcement learning for modeling human locomotion control in neuromechanical simulation | |
Sartoretti et al. | Distributed learning of decentralized control policies for articulated mobile robots | |
US7072741B2 (en) | Robot control algorithm constructing apparatus | |
Hurmuzlu et al. | Modeling, stability and control of biped robots—a general framework | |
Kulić et al. | Anthropomorphic movement analysis and synthesis: A survey of methods and applications | |
Taylor et al. | Learning bipedal robot locomotion from human movement | |
Kang et al. | Finite state machine-based motion-free learning of biped walking | |
Hyon et al. | Back handspring of a multi-link gymnastic robot—Reference model approach | |
Petrič et al. | Reflexive stability control framework for humanoid robots | |
Liu et al. | Workspace trajectory generation method for humanoid adaptive walking with dynamic motion primitives | |
Culha | An actuated flexible spinal mechanism for a bounding quadrupedal robot | |
Shafii et al. | Learning a fast walk based on ZMP control and hip height movement | |
Calderon et al. | Generating human-like soccer primitives from human data | |
CN117572877B (zh) | 一种双足机器人步态控制方法、装置、存储介质及设备 | |
Donnelley-Power | Design of a rat hindlimb robot and neuromechanical controller | |
Huang | Planning for dynamic motions using a search tree. | |
Lecompte et al. | Balance improvement of a humanoid robot while walking | |
Mellema | Exoskeleton controller design for cybathlon by parallel reinforcement learning | |
Lima et al. | Realistic behaviour simulation of a humanoid robot | |
Van de Panne | Control for simulated human and animal motion | |
Peng | Developing locomotion skills with deep reinforcement learning | |
Green | Agile Bipedal Locomotion via Hierarchical Control by Incorporating Physical Principles, Learning, and Optimization | |
Sun et al. | Perception-Driven Learning of High-Dynamic Jumping Motions for Single-Legged Robots | |
Dashpute | Deep reinforcement learning for quadrupeds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120703 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120802 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150810 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5059939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |