JP2012150578A - 用例に基づく効率的なモーションデータベースのスタイリング - Google Patents

用例に基づく効率的なモーションデータベースのスタイリング Download PDF

Info

Publication number
JP2012150578A
JP2012150578A JP2011007370A JP2011007370A JP2012150578A JP 2012150578 A JP2012150578 A JP 2012150578A JP 2011007370 A JP2011007370 A JP 2011007370A JP 2011007370 A JP2011007370 A JP 2011007370A JP 2012150578 A JP2012150578 A JP 2012150578A
Authority
JP
Japan
Prior art keywords
motion
new
clip
bone
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011007370A
Other languages
English (en)
Other versions
JP5210401B2 (ja
Inventor
Cooper Seth
クーパー セス
Nikolaidis Stefanos
ニコライディス ステファノス
Mehta Alan
メタ アラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2011007370A priority Critical patent/JP5210401B2/ja
Publication of JP2012150578A publication Critical patent/JP2012150578A/ja
Application granted granted Critical
Publication of JP5210401B2 publication Critical patent/JP5210401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】コンピュータグラフィックスにおけるモーションを生成する方法に関し、残りのモーションのスタイルを学習し,変換するために,データベースからモーションを選択する方法を提供する。ユーザは,スタイルされる用例をデータベースに提供する。
【解決手段】データベースを用意するステップ,モーションを選択するステップ,及びスタイルを学習し,変換するステップを含み,モーションを生成するコンピュータは,データベースを用意する手段101,モーションを選択する手段102,スタイルを学習し変換する手段103,データベースを更新する手段104を備える。
【選択図】図1

Description

本発明は,全般的に,コンピュータグラフィックスのシステムに関する。特に,本発明は,ビデオゲーム及び3Dコンピュータグラフィックスアプリケーションで,人間のモーションの表現スタイルを実現するコンピュータシステムに関する。
表現スタイルは,ビデオゲームや3Dコンピュータグラフィックスアプリケーションにおいて,人間のモーションを正確に複製するのに必要な要素となっている。
ヒューマンアニメーションのスタイルをモデリングすることは,多くの研究の基本となっている。提案される技術には,モーションを用例から学習されるスタイルに合成すること(非特許文献1),物理学ベースのスタイルモデルを学習すること(非特許文献2),そして,スタイルをインバースキネマティクス(逆運動学)の改善に生かすこと(非特許文献3),が挙げられる。
また,近年,用例の変化を含む,モーションを合成する方法も提案されている。非特許文献4では,モーションデータの空間及び時間の変化のモデルを作り上げている。非特許文献5では,身体グループの変化を自動的にパラメータ化し,ユーザに定義されるスタイルパラメータを含むことにより,普遍クリギングモデルを,スタイルと変化が同時に合成されるように拡張している。
用例の組み合わせに基づくモーションスタイルの特性を変換する,様々な方法が提案されている。非特許文献6では,標準的なモーションとスタイルされる用例のモーションから,時間と空間効率の良いスタイル転換モデルを学習するために,反復モーションワーピングと,線形時不変型を組み合せている。非特許文献7では,用例に基づくシステムが説明されており,類似のモーションの編集を一般化するのに,ガウス過程を利用する。非特許文献8では,モーション間のスタイルを抽出し,変換する,ユーザインターフェースを創作している。これらの方法は,新しいスタイルを学習するために,用例を使用するが,それは,いずれの用例モーションを提供するかを決定するユーザ次第である。本発明の方法は,サイズ又はモーション内容の分類の制限を受けることなく,入力データベースからスタイルされるモーションを自動的に選択する。
モーションデータを収集し,格納するコストが掛かるため,より効率的なモーションの使用方法が提案されている。非特許文献9は,最小サイズのモーショングラフの構築方法を提案している。最近の研究では,特に非特許文献10及び11の課題を実行する制御装置を構築する時に,使用に適したモーションを選択するために,能動的学習方法に焦点が当てられている。
BRAND,M.,AND HERTZMANN,A.2000. Style machines.In Proceedings of the 27th annual conference on Computer graphics and interactive techniques,ACM Press/Addison−Wesley Publishing Co.,New York,NY,USA,SIGGRAPH’00,183−192. LIU,C.K.,HERTZMANN,A.,AND POPOVI´C,Z.2005. Learning physics−based motion style with nonlinear inverse optimization. ACM Trans.Graph.24(July),1071−1081. GROCHOW,K.,MARTIN,S.L.,HERTZMANN,A.,AND POPOVI´C,Z.2004. Style−based inverse kinematics. ACM Trans.Graph.23(August),522−531. LAU,M.,BAR−JOSEPH,Z.,AND KUFFNER,J.2009. Modeling spatial and temporal variation in motion data. ACM Trans.Graph.28(December),171:1−171:10. MA,W.,XIA,S.,HODGINS,J.,YANG,X.,LI,C.,AND WANG,Z. 2010. Modeling style and variation in human motion. The ACM SIGGRAPH/Eurographics Symposium on Computer Animation(SCA 2010). HSU,E.,PULLI,K.,AND POPOVI´C,J. 2005. Style translation for human motion. ACM Trans.Graph.24(July),1082−1089. IKEMOTO,L.,ARIKAN,O.,AND FORSYTH,D.2009. Generalizing motion edits with Gaussian processes. ACM Trans.Graph.28(February),1:1−1:12. SHAPIRO,A.,CAO,Y.,AND FALOUTSOS,P. 2006. Style components. In Proceedings of Graphics Interface 2006,Canadian Information Processing Society,Toronto,Ont.,Canada,Canada,GI’06,33−39. ZHAO,L.,NORMOYLE,A.,KHANNA,S.,AND SAFONOVA,A. 2009. Automatic construction of a minimum size motion graph. In Proceedings of the 2009 ACM SIGGRAPH/Eurographics Symposium on Computer Animation,ACM,New York,NY,USA,SCA’09,27−35. COOPER,S.,HERTZMANN,A.,AND POPOVI´C,Z. 2007. Active learning for real−time motion controllers. ACM Trans.Graph.26(July). LEE,Y.,LEE,S.J.,AND POPOVI´C,Z. 2009. Compact character controllers. ACM Trans.Graph.28(December),169:1−169:8.
本発明の1つの目的は,残りのモーションスタイルを学習し,変換するために,データベースからモーションを選択する方法を提供することである。ユーザは,スタイルされる用例をデータベースに提供する。
本発明の第1の側面は,コンピュータグラフィックスにおけるモーションを生成する方法に関する。本方法は,データベースを用意するステップと,モーションを選択するステップと,スタイルを学習し,変換するステップとを含む。本方法は,データベースを更新するステップをさらに含んでもよい。
データベースは,キャラクターのモーションクリップを格納する。モーションクリップは,キャラクターのモーションセグメントを含み,モーションセグメントは,ボーングループによって,分類されている。
モーションを選択するステップは,モーションクリップをクラスタに分類するステップと,特徴的なモーションの集合を計算するステップを含む。各クラスタは,類似のモーションクリップを含み,特徴的なモーションの集合は,すべてのクラスタを含む。
スタイルを学習し,変換するステップは,第1の新しいモーションを,新しいモーションクリップとして受け取るステップと,新しいモーションクリップをクラスタに分類するステップと,新しいモーションクリップを含む各ボーン及び各モーションのモーションクリップを集めるステップと,新しいモーションクリップを含む新しい特徴的なモーションを創作するステップと,新しい特徴的なモーションを表示するステップとを含む。
第1の側面の好ましい態様として,キャラクターのボーングループは,脚,左腕,右腕,及び上半身を含む。
第1の側面の好ましい態様として,本方法は,新しいモーションクリップをクラスタに分類するステップの後に,新しいモーションクリップが分類されるクラスタのモーションクリップを,新しいモーションクリップに変換するステップをさらに含む。
第1の側面の好ましい態様として,本方法は,新しい特徴的なモーションのいずれか1つが,失敗であることを示す入力データを受け取る時に,第2の新しいモーションを,第2の新しいモーションクリップとして受け取るステップと,失敗したモーションを第2の新しいモーションに変換するステップと,第2の新しいモーションクリップを含む新しい特徴的なモーションを創作するステップと,第2の新しい特徴的なモーションを表示するステップとをさらに含み,そして,新しい特徴的なモーションのすべてが成功であることを示す入力データを受け取る時に,新しい特徴的なモーションを,新しいスタイルとしてデータベースに格納するステップをさらに含む。
本発明の第2の側面は,コンピュータグラフィックスにおけるモーションを生成するコンピュータに関する。このコンピュータは,データベースを用意する手段,モーションを選択する手段,及びスタイルを学習し,変換する手段を含む。
これらの手段は,ハードウエア資源又はハードウエア資源とソフトウエアによって,実装されてもよい。データベースは,キャラクターのモーションクリップを格納する。モーションクリップは,キャラクターのモーションセグメントを含み,モーションセグメントは,ボーングループによって,分類されている。
モーションを選択する手段は,モーションクリップをクラスタに分類する手段と,特徴的なモーション集合を計算する手段を含む。各クラスタは,類似のモーションクリップを含み,特徴的なモーションの集合は,すべてのクラスタを含む。スタイルを学習し,変換する手段は,第1の新しいモーションを,新しいモーションクリップとして受け取る手段と,新しいモーションクリップをクラスタに分類する手段と,それぞれのボーン及びそれぞれのモーションから,新しいモーションクリップを含むモーションクリップを集める手段と,新しいモーションクリップを含む新しい特徴的なモーションを創作する手段と,新しい特徴的なモーションを表示する手段とを含む。
本発明は,残りのモーションのスタイルを学習し,変換するために,ユーザがスタイルされる用例を提供するデータベースから,モーションを選択する方法を提供することができる。
図1は,コンピュータのブロック図である。 図2は,ボーンにより表現されるキャラクター構造の例を示している。 図3は,モーションクリップの例を示している。 図4は,セグメントのクラスタリング又はモーションクリップのクラスタリングを示している。 図5は,最も優れた(多様な)モーションの最小集合を見つけ出す方法を示している。 図6は,表示されるモーションの例である。 図7は,新しいモーションクリップを含むクラスタの更新を示している。 図8は,あるモーションでのモーションクリップの例を示している。 図9は,本発明の1つの態様に係る,コンピュータの構成例を示すブロック図である。 図10は,本発明の方法に基づいてスタイルされるモーションを達成するフローチャートを示している。 図11は,本発明のフレームワークのフローチャートである。 図12は,第1反復のROC曲線である。 図13は,毒のスタイルを生成するために,オリジナルのモーションとユーザからのモーションを合成した結果を示している。 図14は,ロボットスタイルを生成するために,オリジナルのモーションとユーザからのモーションを合成した結果を示している。 図15は,忍び足のスタイルを生成するために,オリジナルのモーションとユーザからのモーションを合成した結果を示している。 図16は,第1の反復の結果の例を示している。 図17は,第2の反復の結果の例を示している。 図18は,第4の反復の結果の例を示している。
本発明の,コンピュータグラフィックスにより,モーションを生成するコンピュータを説明する。図1に示されるように,コンピュータは,データベースを用意する手段101と,モーションを選択する手段102と,スタイルを学習し変換する手段103を含む。コンピュータは,データベースを更新する手段104をさらに含む。
データベースは,キャラクターのモーションクリップを格納する。モーションクリップは,ボーングループによって分類されるキャラクターのモーションセグメントを含む。
図2は,ボーンにより表現されるキャラクターの構造の例を示している。この図において,キャラクターは,4つのボーングループにより表現されている。その集合の構成要素は,脚,左腕,右腕,及び上半身を含む。上半身のボーンは,胴体として表わされてもよい。モーションの構成は,ボーンを含むモーションの集まりとして表わされてもよい。
オリジナルのモーションは,モーションキャプチャ又はキャラクターのモーションを生成できるいずれかの方法により,集められてもよい。その後,コンピュータは,モーションを一連のポーズに分割する。次に,コンピュータは,各ポーズのボーンを計算してもよい。例えば,コンピュータは,ポーズに基づく,脚ボーン,左腕ボーン,右腕ボーン,そして上半身ボーンを,従来の手段により,計算する。あるポーズでのボーンの集まりは,キャラクターのスケルトン形状を表わしている。各ボーンは,各部分の長さや角度の情報を含んでもよい。
コンピュータは,モーションクリップ処理を実行してもよい。この処理によって,コンピュータはモーションクリップを獲得する。図3は,モーションクリップの例を示している。またこの図では,モーションkのモーションセグメントも示している。コンピュータは,モーションをモーションの構成グループに分割する。分割の結果として,図3の長方形として示されるモーションクリップが生じる。例えば,モーション1の脚ボーンは,2つのモーションクリップに分割されている。モーション1の脚ボーンは,fからfの間で,大幅に変化しないか又はほぼ変化しないため,第1のモーションクリップは,fからfまで,第2のモーションクリップは,fからfまでで終了する。クリップの分割は,特開2010−181959公報に記載される,キーフレーム技術により実行されてもよい。図3において,構成番号111は,脚ボーンのモーションクリップを示し,構成番号112は,胴体ボーンのモーションクリップを示し,構成番号113は,左腕ボーンのモーションクリップを示し,構成番号114は,右腕ボーンのモーションクリップを示している。
モーションを選択する手段は,類似のモーションクリップを同じクラスタに分類する手段である。モーションを選択する手段は,モーションクリップをクラスタに分類する手段を含む。各クラスタは,類似のモーションクリップを含む。モーションを選択する手段は,すべてのクラスタを含むモーションの特徴的な集合を計算する手段を,さらに含む。
図4は,セグメントのクラスタリング又はモーションクリップのクラスタリングを示している。モーションクリップの類似点は,従来の方法により計算されてもよい。好ましくは,モーションクリップの類似点は,後に本明細書で説明される技術により計算されてもよい。図4に示されるように,モーションクリップ111,112,113,114は,それぞれ,脚ボーンのクラスタ121,胴体ボーンのクラスタ122,左腕ボーンのクラスタ123,右腕ボーンのクラスタ124に分類されている。モーションクリップをクラスタに分類するために,モーションクリップをメモリから読み込み,1つのモーションクリップと読み込まれるモーションクリップの類似点を計算してもよい。もし,そのとき,2つのモーションクリップの類似点が,所定の値内ならば,これら2つのモーションクリップは,同じクラスタとなってもよい。
図5は,最も優れたモーションの最小集合を見つけ出す方法を示している。上記説明から,すべてのモーションデータは,クラスタに分類される。コンピュータは,特徴的なモーションの集合を検索してもよい。特徴的なモーションは,すべてのクラスタを含む。図5に示されるように,例えば,モーション1は,6つのクラスタを含む。もし,モーション1が削除された場合,いずれのモーションにも属さない,3つのクラスタが存在することになる。したがって,モーション1は,特徴的なモーションの1つである。反対に,モーション4は,モーション1とモーション2に属する2つのモーションクラスタを含む。したがって,モーション4は,特徴的なモーションの1つではない。
特徴的なモーションの最小集合を計算するために,コンピュータは,すべてのモーションとモーションのクラスタを読み込んでもよい。そのとき,コンピュータは,他のモーションに属するクラスタを有するモーションを選択してもよい。もし,そのモーションに属するすべてのクラスタが,他のモーションに属していた場合,それにより,そのモーションは特徴的なモーションではない候補として選択されることになる。
特徴的なモーションの集合,又はすべてのモーションは表示されてもよい。図6は,表示されるモーションの例である。モーションを表示するために,コンピュータは,モーションに属するすべてのモーションクリップを集めてもよい。モーションを表示する場合,コンピュータは,各クラスタから,1つのモーションクリップを代表的なモーションクリップとして選択してもよい。そのとき,コンピュータは,オリジナルのモーションクリップが代表的なモーションクリップに変換されることにより,オリジナルのモーションクリップの代わりに代表的なモーションクリップを使用してもよい。
スタイルを学習し,変換する手段は,モーションを学習し,追加されるモーションを合成する手段である。これは1つのスタイルを表す。この手段は,第1の新しいモーションを新しいモーションクリップとして受け取る手段,新しいモーションクリップをクラスタに分類する手段,各ボーンと各モーションに関する,新しいモーションクリップを含むモーションクリップを集める手段,新しいモーションクリップを含む新しい特徴的なモーションを創作する手段,そして,新しい特徴的なモーションを表示する手段を含む。
1つのスタイルを示す新しいモーションは,コンピュータに入力される。スタイルの例は,毒に侵されたスタイル,ロボットのようなスタイル,忍び足のスタイル,混乱したスタイル,魔法にかけられたスタイルがある。コンピュータは,第1の新しいモーションを新しいモーションクリップとして受け取ってもよい。第1の新しいモーションは,モーションキャプチャ技術手段又は他のデータベースから得られてもよい。
その後,コンピュータは,新しいモーションクリップをクラスタに分類する。新しいモーションクリップを分類するために,コンピュータは,新しいモーションクリップと,1つのクラスタのモーションクリップの類似点を計算してもよい。図7は,新しいモーションクリップを含むクラスタの更新を示している。図7において,左側の円はオリジナルのクラスタを示す。構成番号131は,脚ボーンの新しいモーションクリップを示し,構成番号132は,胴体ボーンの新しいモーションクリップを示し,構成番号133は,左腕ボーンの新しいモーションクリップを示し,構成番号134は,右腕ボーンの新しいモーションクリップを示している。
もし,新しいモーションクリップの1つがクラスタに属するとき,1つ又は複数の新しいモーションクリップは,クラスタの1つ又は複数の代表的なモーションクリップになってもよい。コンピュータは,新しいモーションクリップをクラスタに分類するステップの後,新しいモーションクリップが分類されるクラスタのモーションクリップを,新しいモーションクリップに変換してもよい。
モーションクリップを集める手段は,新しいモーションクリップを含む各ボーン及び各モーションのモーションクリップを集めるために使用される。1つのモーションの1つ又は複数のモーションクリップは,新しいモーションクリップに変換されてもよい。図8は,あるモーションでのモーションクリップの例を示している。図8のモーションクリップは,モーションを生成するために,集められ又は合成されてもよい。
新しい特徴的なモーションを創作する手段は,新しい特徴的なモーションを創作する手段である。この手段は,新しいモーションを含む上記合成されるモーションを使用する。
新しい特徴的なモーションを表示する手段は,新しい特徴的なモーションを表示する。この手段は,新しい特徴的なモーションを評価してもよい。
コンピュータは,データベースを更新する手段をさらに含んでもよい。この手段は,コンピュータに以下の手段を実行させる。新しい特徴的なモーションのいずれか1つが,失敗であることを示す入力データを受け取る時に,第2の新しいモーションを,第2の新しいモーションクリップとして受け取る手段と,失敗したモーションを第2の新しいモーションに変換する手段と,第2の新しいモーションクリップを含む新しい特徴的なモーションを創作する手段と,第2の新しい特徴的なモーションを表示する手段と,そして,新しい特徴的なモーションのすべてが成功であることを示す入力データを受け取る時に,新しい特徴的なモーションを,新しいスタイルとしてデータベースに格納する手段。
図9は,本発明の1つの態様に係る,コンピュータの構成例を示すブロック図である。このコンピュータは,ゲーム装置に使用される。
操作入力部21は,電源スイッチや十字キーなどの複数のスイッチやキーで構成されている。
機械本体10に配置される回路には,制御部11,RAM12,ハードディスクドライブ(HDD)13,音響処理部14,グラフィックス処理部15,通信インターフェース17,インターフェース部18,フレームメモリ19,及びカードスロット20が含まれる。制御部11,RAM12,HDD13,音響処理部14,グラフィック処理部15,通信インターフェース17,及びインターフェース部18は,それぞれ内部バス22に接続されている。
CPU,ROMなどを含む制御部11は,HDD13又は記録媒体70に格納される制御プログラムに従って,ゲーム機100全体を制御する。制御装置11は,例えばタイマー割り込みを生成するのに使用される内部タイマーを有する。また,RAM12も制御部11の作業領域として使用される。
音響処理部14は,音響信号のD/A変換及びA/D変換を行う音響入出力インターフェース機能を有する。また,音響処理部14は,スピーカなどで構成される音響出力装置30に接続されている。音響処理部14は,様々な制御プログラムで処理を実行する制御部11からの出力指示により,音響信号を音響出力装置30に出力する。
グラフィック処理部15は,第1の画像表示部51と第2の画像表示部52を有する表示装置50に接続されている。グラフィック処理部15は,制御部11の描画指示により,画像をフレームメモリ19に分配し,第1と第2の画像表示部51,52に画像を表示するビデオ信号を,表示装置50に出力する。ビデオ信号により表示される画像の切り替え時間は,例えば1フレーム1/30秒に設定される。
プログラムなどが格納される記録媒体70は,カードスロット20に挿入される。本発明の態様の記録媒体70は,書き込み可能なフラッシュメモリのような半導体メモリである。通信インターフェース17は,無線又は有線により他のゲーム機100に接続可能であり,また,インターネットのような通信ネットワークにも接続可能である。機械本体10は,通信インターフェース17の通信機能により他のゲーム機100と通信し合うことが可能である。
操作入力部21,カードスロット20,及びタッチパネル40は,インターフェース部18に接続されている。インターフェース部18は,プレーヤ(ユーザー)の操作を基にした操作入力部21からの指示データ,及びタッチペン41によるタッチパネル40のプレーヤの操作を基にした指示データを,RAM12に格納する。その後,制御部11は,RAM12に格納される指示データにより様々な算術処理を実行する。
タッチパネル40は,第1及び第2の画像表示部51,52のどちらか一方又は,両方の表示スクリーン側に積層されている。したがって,制御部11は,タッチパネル40が積層される第1又は第2の画像表示部51,52のいずれか一方又は両方の表示スクリーン側での表示タイミングを管理,制御し,タッチペン41などを使用するタッチパネル40の操作のタイミングを管理,制御し,そして,位置座標を管理,制御することにより,プレーヤの入力操作に応じた入力情報を認識する。表示装置50は,第1及び第2の画像表示部51,52のような複数の画像表示部を有する代わりに,単一の画像表示部で構成されていてもよい。
インターフェース部18は,制御部11からの指示に従って,RAM12に格納されるゲームの進行を示すデータを,カードスロット20に挿入される記録媒体70に格納し,又は記録媒体70に格納される中断時のゲームデータを読み出し,データをRAM12に転送するような処理を実行する。
ゲーム機100でゲームをプレイする制御プログラム等の様々なデータは,記録媒体70に格納されている。記録媒体70に格納される制御プログラム等の様々なデータは,記録媒体70が挿入されるカードスロット20から,制御部11により読み出され,RAM12にロードされる。
制御部11は,RAM12にロードされる制御プログラムに従って,グラフィックス処理部15に描画指示を出力すること,又は音響処理部14に音響出力指示を出力するような処理を実行する。制御部11が,処理を実行している間に,ゲームの進行に応じて途中で発生するデータは,作業メモリとして使用されるRAM12に格納される。
図10は,本発明の方法に基づいてスタイルされるモーションを獲得するフローチャートを示している。図10に示されるように,この方法は,データベースを用意するステップ(S101),モーションを選択するステップ(S102),スタイルを学習し,変換するステップ(S103),そして,データベースを更新するステップ(S104)を含む。
モーションを選択するステップ(S102)は,モーションクリップをクラスタに分類するステップと,特徴的なモーションの集合を計算するステップを含む。各クラスタは,類似のモーションクリップを含み,特徴的なモーションの集合は,すべてのクラスタを含む。
スタイルを学習し,変換するステップ(S103)は,第1の新しいモーションを,新しいモーションクリップとして受け取るステップと,新しいモーションクリップをクラスタに分類するステップと,新しいモーションクリップを含む各ボーン及び各モーションのモーションクリップを集めるステップと,新しいモーションクリップを含む新しい特徴的なモーションを創作するステップと,新しい特徴的なモーションを表示するステップとを含む。
第1の側面の好ましい態様として,キャラクターのボーングループは,脚,左腕,右腕,及び上半身である。
第1の側面の好ましい態様として,本方法は,新しいモーションクリップをクラスタに分類するステップの後に,新しいモーションクリップが分類されるクラスタのモーションクリップを,新しいモーションクリップに変換するステップをさらに含む。
第1の側面の好ましい態様として,本方法は,データベースを更新するステップ(S104)をさらに含む。もしも,このシステムが,新しい特徴的なモーションのいずれか1つが,失敗であることを示す入力データを受け取る場合,コンピュータは,第2の新しいモーションを,第2の新しいモーションクリップとして受け取ってもよい。次に,コンピュータは,失敗したモーションを第2の新しいモーションに変換してもよい。その後,コンピュータは,第2の新しいモーションクリップを含む新しい特徴的なモーションを,創作する。最後に,コンピュータは,第2の新しい特徴的なモーションを表示する。
もしも,コンピュータが,新しい特徴的なモーションのすべてが成功であることを示す入力データを受け取る場合,新しい特徴的なモーションを,新しいスタイルとしてデータベースに格納する。
本発明のフレームワークは,図11に示されるように,4つの主要なステージを有する。第1のステージにおいて,本発明は,スケルトンを複数のグループに分けることにより,入力モーションデータベースを準備する。グループの例は,ボーングループ,特に,左腕,右腕,胴体,脚の4つのボーングループである。本発明は,各ボーングループ内のモーション内容のユニットを区別するために,キーポーズを自動検出することにより,モーションをセグメントする。
第2のステージにおいて,本発明は,ユーザがスタイルするモーションを選択する。本発明は,各ボーングループを含むセグメントをクラスタし,スタイルされる用例セグメントの少なくとも1つが,存在できるようにする。このセグメントは,すべてのクラスタに提供される。これを行うために,本発明は,すべてのクラスタをカバーする全身モーションのコンパクトな集合を見つけだす,集合カバー問題を解いてもよい。本発明は,理想的なクラスタリングと必要なモーション数を決定するために,受信者動作特性(ROC)曲線を分析してもよい。その後,ユーザは,これらのモーションをスタイルする。
第3のステージにおいて,本発明は,用例モーションから学習されるスタイルを残りのデータベースに転送する。初めに,本発明は,すべてのクラスタ間に依存する内部ボーングループを計算する。次に,本発明は,各クラスタのスタイル変換関数を学習するために,入力ポーズと用例ポーズを利用する。本発明は,適切な変換関数を,残りの入力モーションのセグメントに適用し,ボーングループとセグメントを全身モーションに組み立て直し,そして,後処理を実行してもよい。第4のステージでは,本発明は,うまくいった合成モーションを変換し,ユーザに評価させる。
うまくスタイルされたモーションは,出力データベースに格納され,残りのスタイルされたモーションは,放棄される。その後,本発明は,すべての入力モーションのスタイルがうまくできるまで,スタイル変換関数を改善するように,第2のステージから処理を繰り返す。
データベースの用意
本発明は,一連のポーズ{p,p,.....,p}により,モーションMをモデル化してもよい。ポーズは,スケルトンの運動学的自由度を定義する。これは,ボーンの階層構造で構成されている。本発明は,指数写像で,各ボーンbの自由度を表わしてもよい(GRASSIA,F.S.1998.Proctical parameterization of rotations using the exponential map参照(J.Graph.Tools 3(March),29−48参照))。本発明は,‘KOVAR,L.,AND GLEICHER,M.2003.Flexible automatic motion blending with registration curve.In Proceedings the 2003 ACM SIGGRAPH/Eurographics symposium on Computer animation Eurographics Association,Aire−la−Ville,Switzerland,Switzerland,SCA’03,214−224と同じ方法により,スケルトンの大域変換を表わしてもよい。ヒップ間のベクトルにより定義されるローカルフレームを使用することにより,本発明は,以前のポーズ及び絶対y軸並進(absolute y translation)からオフセットを行う際に,x軸とz軸への並進移動及びy軸の回転を追跡することができる。また,本発明は,以前のポーズからの経過時間tを追跡してもよい。本発明は,ポーズpにおけるボーンbの大域変換を,行列M(p)として定義してもよい。これにより,本発明は,ボーンの位置をpos(p)=M(p)[0001]として定義することができる。本発明は,自動ツールと手動ラベリングの組み合せによって,入力モーションの足を置く情報(foot plant information)に注釈を付けてもよい。
スケルトンのセグメンテーション
本発明は,スケルトンを4つの区分:A=脚,B=左腕,C=右腕,D=上半身に分割してもよい。本発明は,A,B,C,Dを含むグループIのボーンの集合をBと呼び,ルーツボーングループをrとしてもよい。また,本発明は,ボーングループの階層構造を定義してもよい。ボーングループの階層構造は,後に,ボーングループ間の従属性を部分的に取り戻すのに使用される。この従属性は,スケルトンが分割された時に失われる。本発明は,脚からスケルトンが移動することにより,各ボーングループの従属性を,以下のように,形成してもよい。
Figure 2012150578
モーションのセグメンテーション
本発明は,基本的なモーション内容のユニットを区別するために,キーポーズの自動検出により,各ボーングループのモーションを,より小さなセグメントに前処理してもよい。各モーションのそれぞれのボーングループに関して,本発明は以下のように定義してもよい。
Figure 2012150578
上記式において,キーポーズは,K(p)が極小値及び極大値で生じる。直観的にいえば,これは,ボーングループが最もコンパクトであるか,最も広がっている場合のポーズと一致する。セグメントSは,キーポーズ間のモーションのポーズとして,定義される。
モーションの選択
モーション選択ステージは,モーションを特定する。ユーザは,用例にスタイルを適応させるために,これらのモーションを提供することになる。本発明は,候補のモーション集合を生成するために,距離関数により,すべてのセグメントの階層的クラスタリングの組み合わせを,各ボーングループ内で繰り返し適用してもよく,標準集合被覆アルゴリズムをすべてのボーングループから,すべてのクラスタに適用してもよい。その時,本発明は,重複するモーション内容を符号化する理想的なコンパクトなモーション集合を特定するために,各クラスタのセグメント変動に対するモーション数をグラフに表わす合成ROC曲線を分析してもよい。
セグメントのクラスタリング
ボーングループのセグメントをクラスタするために,本発明はセグメント間の距離関数を定義してもよい。本発明は,まず始めにボーン間の距離関数を定義してもよい。本発明は,ボーングループのルーツボーンのローカル空間で所定のポーズを取り囲む,3つのポーズのウィンドウにおける,各ボーンの位置間の相違点を考慮してもよい。
Figure 2012150578
3つのポーズウィンドウの選択は,位置と速度と加速度の情報を取り込む必要がある。これらの情報により,本発明は,スタイルの構成要素を考慮する。その時,本発明は,ポーズ間の距離を以下の計算式として定義することができる。
Figure 2012150578
セグメントは様々な間隔でもよい。従って,本発明は,ボーングループのセグメント間の距離を,セグメントの始点,中間点,終点のポーズ間の最大距離として以下のように定義してもよい。
Figure 2012150578
この距離は,グループIのボーン数によって正規化されることを示している。これにより,本発明は,ボーングループ間のセグメント距離を比較することができる。モーションのユニットは,比較的滑らかなことから,本発明は,比較のために動的タイムワープを行うよりもむしろ,このメトリックで十分である。この距離関数を使用することにより,本発明は,セグメントの完全連結式階層的クラスタリング(JAIN,A.K.,MURTY,M.N.,AND FLYNN,P.J.1999. Data clustering:a review. ACM Comput.Surv.31(September),264−323参照)を構成してもよい。これは,各ボーングループの1つのクラスタ樹係図を生じる。初めに,本発明は,ボーングループのすべてのセグメントが単一のクラスタに含まれるように,樹系図を十分に結合してもよい。
集合カバー
本発明は,クラスタ内のある用例から学習されるスタイル変換関数が,そのクラスタ内の残りのセグメントに,十分適用できると,仮定してもよい。これにより,本発明は,各クラスタが,少なくとも1つの用例セグメントの代表的なスタイルを有するように,最も少ないモーション数を選択することができる。これらのモーションを選択するために,本発明は,すべてのボーングループ間のすべてのクラスタに,貪欲集合カバー(greedy set cover)を実行してもよい(CORMEN,T.H.,STEIN,C.,RIVEST,R.L.,AND LEISERSON,C.E.2001. Introduction to Algorithms,2nd ed.McGraw−Hill Higher Education参照)。
これは,本発明に,現在のクラスタをカバーするモーションの集合を与えることになる。適切なクラスタリングとモーション数を決定する客観的な分析を行うために,本発明は,クラスタリングと集合カバー手順を繰り返してもよい。各反復において,本発明は,いずれかのボーングループの最も長い連結クラスタを中断することにより,セグメントを再びクラスタしてもよく,再び集合カバーを実行してもよい。本発明は,すべてのモーションが選択されるまで繰り返してもよい。この時,クラスタごとに1つのセグメントが存在する。
ROC曲線の分析
ROC曲線は,モデルの複雑さとデータを明らかにできることとの妥協点を評価する方法を提供する(FAWCETT,T.2006. An introduction to roc analysis. Pattern Recognition Letters 27,8,861−874. ROC Analysis in Pattern Recognition.参照)。本発明は,モデルの複雑さを選択されるモーション数と考えてもよい。各モーション数に関して,本発明は,データを明らかにできることを,モーション数を選択するすべてのクラスタリングから派生する最も長い連結クラスタの最小値と考えてもよい。本発明は,値域(0,1)をカバーする各軸線を正規化してもよい。直観的に,もし,データ構造がほとんどなかったら,生じる曲線は,線形y=xに接近することになる。したがって,本発明は,最も大きなデータの基礎構造を明らかにするために,この線形から最も大きな符号付き距離の点を,このモデルをパラメータ化する点として,選択してもよい。図12は,クラスタリングと集合カバーの繰り返しにより生成される,ROC曲線の例を示している。
用例の提供
かつて,適切なモーションは,ROC曲線の分析により選択されていたが,本発明は,スタイルされるこれらのモーションの用例を提供するユーザを必要とする。本発明は,同じアクターで同じスケルトンのモーションキャプチャを使用することにより,用例を得た。
学習と合成
第3のステージにおいて,本発明は,スタイル変換関数を学習し,用例が提供されなかった入力セグメントにそれらを適用するために,ユーザにより提供されるスタイル化された用例モーションを使用する。用例モーションの複数のクリップは,同じクラスタ内に存在できるが,集合カバーアルゴリズムは,少なくとも1つのスタイル化された用例クリップが,各クラスタに存在することを約束する。スタイル変換関数は,加重局所回帰により,各クラスタについて学習される。これらのモーションは,スタイルされる各ボーングループのセグメントから再び集められる。
交差するボーングループとクラスタの重み付け
本発明は,スケルトンが分割される時に失われる,ボーングループ間の従属するモーション内容を部分的に回復させるために,選択されるモーションのすべてのボーングループにまたがるすべてのクラスタ間の時間的相関関係を測定してもよい。本発明は,同じポーズで2つのクラスタが発生するかどうかを確かめるために,まず始めに,以下のバイナリ関数を定義してもよい。
Figure 2012150578
これにより,本発明は,他のクラスタすべてに対して,いずれかのボーングループのいずれかのクラスタが重み付けされる,以下の関数を定義することができる。これらの重み付けは,各クラスタの回帰に使用される。
Figure 2012150578
クラスタごとのスタイル変換
入力モーションと用例モーションの間の対応するポーズデータを一時的にアライメントをとるために,本発明は,入力モーションと適応させるように,用例モーションを,動的にタイムワープしてもよい(KOVAR,L.,AND GLEICHER,M.2003. Flexible automatic motion blending with registration curves. In Proceedings of the 2003 ACM SIGGRAPH/Eurographics symposium on Computer animation, Eurographics Association,Aire−la−Ville,Switzerland,Switzerland,SCA’03,214−224.)。本発明は,各クラスタのk最近隣回帰関数を学習するために,対応する用例ポーズデータと共に,選択される入力モーションの各クラスタに含まれるポーズデータを使用してもよい。交差ボーングループの従属性を考慮することにより,本発明は,2つの入力ポーズ間の距離を以下のように定義する。
Figure 2012150578
これにより,本発明は,回帰の重み付けを以下のように定義することができる。
Figure 2012150578
ここで,Nは,入力ポーズpのk最近隣集合である。本発明は,クラスタに利用できる用例ポーズの総数の平方根となるようkを選択してもよい。本発明は,重み付け0の最遠隣を円滑にマップするように,以下の3次スプライン関数を適用してもよい。
Figure 2012150578
本発明は,スタイルをペアレントボーンのローカル空間でのユークリッドのオフセットとして学習することができる。そのため,3次元回転に関連付けられる特異点を,容易に補間し,実際に回避する。各ボーンに関して,本発明は,ポーズの位置である,pos(p)のオフセットを学習してもよい。すべてのボーンがルーツボーンの場合,本発明は,軸:aln(p)=M(p)αのボーンのアライメントをとるのに使用される点の位置におけるオフセットを学習してもよい。ここで,αは,ボーン軸に垂直な任意の単位ベクトルである。ルーツボーンは,軸を持たないため,本発明は,2つのアライメントオフセットを学習する。1つは,各ヒップの方向である:alnr1(p)=M(p)β と alnr2(p)=M(p)γである。ここで,βとγは,ヒップボーンの左右の単位方向である。また,ルーツボーンは,Δを学習する。
回帰出力は,統合されて単一のベクトルとなることにより,入力されるポーズpとスタイルされる用例ポーズp´のペアレントボーンのローカル空間におけるボーンの位置とアライメントのユークリッドのオフセットとなる。
Figure 2012150578
回帰の重み付けは,以下のように行われる。
Figure 2012150578
これは,それぞれのポーズのそれぞれのボーングループに用例が提供されなかった場合である。
モーションの再構築
現段階では,本発明は,用例が提供されなかった各入力ポーズのそれぞれのボーンにおけるオフセットを有してもよい。残りのスタイルされない入力モーションのすべてのポーズに関して,本発明は,異なるボーングループからオフセットを集めて,スケルトン全体のオフセットにしてもよい。大域的なルーツの自由度とタイムワープ情報は,前節の通りに学習された。脚を置く情報は,入力モーションから出力データにコピーされる。その時,本発明は,スタイルされたタイムワープにより,入力モーションとオフセットデータの両方をアンタイムワープする。次に,本発明は,重み付けされた移動平均により,オフセットを滑らかにしてもよい。本発明は,スタイルされるポーズの望ましい位置とアライメントを得るために,オフセットデータを,各入力ポーズの位置とアライメントに加えてもよい。本発明は,2つの連続する回転を適用することにより,各ボーンの回転を計算してもよい。初めに,本発明は,望ましい位置にできるだけ近づく位置となるように,ボーンを自由に回転させてもよい。次に,本発明は,できるだけ望ましいアライメント点に近づくように,軸の周りにボーンを回転させてもよい。ルーツボーンに関して,本発明は,その位置を設定し,2つのヒップアライメント点を整列させてもよい。本発明は,大域的なx軸,z軸の移動とy軸の回転情報を,入力情報からコピーしてもよい。
後処理
本発明は,完全なスケルトンのモーションをスタイルし,後処理を適用する。初めに,本発明は,重み付けされた移動平均により,出力モーションを滑らかにする。次に,本発明は,スケルトンのルーツを適切に変換することで,いずれのポーズにも配置される脚が以前のポーズで同じ位置でとどまるように,強制することにより,脚のスケートを整える。また,本発明は,スケルトンが接地平面にとどまるようにしてもよい。
ユーザのフィードバック
合成されるモーションが,後処理により整えられた後,本発明は,スタイルの自動変換の質を判断するために,ユーザに,新しくスタイルされるモーションを検査させる。本発明は,対話型インターフェースにおけるユーザの入力と自動的にスタイルされるモーションを表示する。対話型インターフェースは,ユーザが,すべてのモーションを効果的に検査し,それらがうまくスタイルされるか否かを示すことを可能にする。うまくスタイルされるモーションは,出力データベースに移送され,そうでないモーションは,破棄される。その時処理は,入力データベースの全体が,提供される用例モーションと合成モーションの組み合わせからうまくスタイルされ終えるまで,第2ステージからフレームワークを繰り返す。ユーザのフィードバックループのそれぞれの反復において,うまくスタイルされるモーションが考慮されない時,本発明は,入力モーションのより小さな集合を連続的に処理する。このスタイル変換モデルの解決法は,フレームワークを一巡するごとに,反復的に改善される。本発明の方法は,余分なモーション内容が入力データベースに存在するという仮定により,動機づけられている。しかし,本発明は,入力データベースの類似モーションに制約を加えない。もし,入力データベースのどのモーション間にも共通内容がなかったら,本発明のフレームワークは,個々にスタイルする各入力モーションを,単に変換する。ユーザに,合成されるモーションのスタイルの質を判断させることは,提供する用例の量によって,美的感覚を犠牲にすることを許容することにより,モーションデータベースのスタイリングにさらなる柔軟性を与える。
図13は,毒のスタイルを生成するために,オリジナルのモーションとユーザからのモーションを合成した結果を示している。オリジナルのモーションは,図6に示されている。
図14は,ロボットスタイルを生成するために,オリジナルのモーションとユーザからのモーションを合成した結果を示している。オリジナルのモーションは,図6に示されている。
図15は,忍び足のスタイルを生成するために,オリジナルのモーションとユーザからのモーションを合成した結果を示している。オリジナルのモーションは,図6に示されている。
図16は,第1の反復の結果の例を示している。言い換えると,ステップ101からステップ103までのそれぞれは,1度は実行される。いくつかのモーションは,失敗であると決定された。ユーザが,失敗したモーションの情報を入力する時,コンピュータは,失敗したモーションと生成された新しいモーションを変換した。図17は,第2の反復の結果の例を示している。モーションを獲得するために,コンピュータは,再びステップ101からステップ103を繰り返す。図17には失敗したモーションが存在した。そのため,コンピュータはステップ101からステップ103を4回繰り返した。図18は,第4の反復の結果の例を示している。図18には失敗したモーションは存在しなかった。したがって,コンピュータは,モーションを,新しいスタイルのモーション集合として格納した。
本発明は,コンピュータ産業,特に娯楽産業において利用され得る。
101 データベースを前処理する手段
102 モーションを選択する手段
103 スタイルを学習し,変換する手段
104 データベースを更新する手段




Claims (5)

  1. データベースを用意するステップと,
    モーションを選択するステップと,
    スタイルを学習し,変換するステップとを含む,
    コンピュータグラフィックスにおけるモーションを生成する方法であって,
    前記データベースは,キャラクターのモーションクリップを格納し,
    前記モーションクリップは,ボーングループにより分類される前記キャラクターのモーションセグメントを含み,
    前記モーションを選択するステップは,
    前記モーションクリップを,類似のモーションを含む各クラスタに分類するステップと,
    前記クラスタのすべてを含む特徴的なモーションの集合を計算するステップとを含み,
    前記スタイルを学習し,変換するステップは,
    第1の新しいモーションを,新しいモーションクリップとして受け取るステップと,
    前記新しいモーションクリップを,前記クラスタに分類するステップと,
    前記新しいモーションクリップを含む各ボーン及び各モーションのモーションクリップを集めるステップと,
    前記新しいモーションクリップを含む新しい特徴的なモーションを創作するステップと,
    前記新しい特徴的なモーションを表示するステップとを含む,
    方法。
  2. 前記キャラクターの前記ボーングループは,脚,左腕,右腕及び上半身を含む,請求項1に記載の方法。
  3. 前記新しいモーションクリップを,前記クラスタに分類する前記ステップの後に,前記新しいモーションクリップが分類される前記クラスタのモーションクリップを前記新しいモーションクリップに変換するステップを,さらに含む,請求項1に記載の方法。
  4. 前記新しい特徴的なモーションのいずれか1つが失敗であることを示す入力データを受け取る時,
    第2の新しいモーションを,第2の新しいモーションクリップとして受け取るステップと,
    前記失敗したモーションを,前記第2の新しいモーションに変換するステップと,
    前記第2の新しいモーションクリップを含む新しい特徴的なモーションを創作するステップと,
    前記第2の新しい特徴的なモーションを表示するステップと,
    前記新しい特徴的なモーションのすべてが成功であることを示す入力データを受け取る時,
    前記新しい特徴的なモーションを,新しいスタイルとして,前記データベースに格納するステップとを,さらに含む,請求項1に記載の方法。
  5. データベースを用意する手段と,
    モーションを選択する手段と,
    スタイルを学習し,変換する手段とを含む,
    コンピュータグラフィックスにおけるモーションを生成するコンピュータであって,
    前記データベースは,キャラクターのモーションクリップを格納し,
    前記モーションクリップは,ボーングループにより分類されるキャラクターのモーションセグメントを含み,
    前記モーションを選択する手段は,
    前記モーションクリップを,類似のモーションを含むクラスタに分類する手段と,
    前記クラスタのすべてを含む特徴的なモーションの集合を計算する手段とを含み,
    前記スタイルを学習し,変換する手段は,
    第1の新しいモーションを,新しいモーションクリップとして受け取る手段と,
    前記新しいモーションクリップを,前記クラスタに分類する手段と,
    前記新しいモーションクリップを含む各ボーン及び各モーションのモーションクリップを集める手段と,
    前記新しいモーションクリップを含む新しい特徴的なモーションを創作する手段と,
    前記新しい特徴的なモーションを表示する手段とを含む,
    コンピュータ。








JP2011007370A 2011-01-17 2011-01-17 用例に基づく効率的なモーションデータベースのスタイリング Active JP5210401B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011007370A JP5210401B2 (ja) 2011-01-17 2011-01-17 用例に基づく効率的なモーションデータベースのスタイリング

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011007370A JP5210401B2 (ja) 2011-01-17 2011-01-17 用例に基づく効率的なモーションデータベースのスタイリング

Publications (2)

Publication Number Publication Date
JP2012150578A true JP2012150578A (ja) 2012-08-09
JP5210401B2 JP5210401B2 (ja) 2013-06-12

Family

ID=46792779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011007370A Active JP5210401B2 (ja) 2011-01-17 2011-01-17 用例に基づく効率的なモーションデータベースのスタイリング

Country Status (1)

Country Link
JP (1) JP5210401B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022518970A (ja) * 2019-03-15 2022-03-17 株式会社ソニー・インタラクティブエンタテインメント 異種のターゲットアニメーションデータを使用してキャラクタをトレーニングする強化学習

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102118519B1 (ko) 2018-11-22 2020-06-15 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554122A (ja) * 1991-08-29 1993-03-05 Nec Corp アニメーシヨン作成方式
JP2002319035A (ja) * 2001-04-19 2002-10-31 Taito Corp アニメーション生成方式
JP2003132363A (ja) * 2002-09-12 2003-05-09 Mitsubishi Electric Corp アニメーション制作システム
JP2008015713A (ja) * 2006-07-04 2008-01-24 Kyushu Institute Of Technology 動作変形システム及びその方法
JP2010181959A (ja) * 2009-02-03 2010-08-19 Keio Gijuku キーポーズの選定方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554122A (ja) * 1991-08-29 1993-03-05 Nec Corp アニメーシヨン作成方式
JP2002319035A (ja) * 2001-04-19 2002-10-31 Taito Corp アニメーション生成方式
JP2003132363A (ja) * 2002-09-12 2003-05-09 Mitsubishi Electric Corp アニメーション制作システム
JP2008015713A (ja) * 2006-07-04 2008-01-24 Kyushu Institute Of Technology 動作変形システム及びその方法
JP2010181959A (ja) * 2009-02-03 2010-08-19 Keio Gijuku キーポーズの選定方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022518970A (ja) * 2019-03-15 2022-03-17 株式会社ソニー・インタラクティブエンタテインメント 異種のターゲットアニメーションデータを使用してキャラクタをトレーニングする強化学習
JP7061238B2 (ja) 2019-03-15 2022-04-27 株式会社ソニー・インタラクティブエンタテインメント 異種のターゲットアニメーションデータを使用してキャラクタをトレーニングする強化学習

Also Published As

Publication number Publication date
JP5210401B2 (ja) 2013-06-12

Similar Documents

Publication Publication Date Title
Smith et al. Efficient neural networks for real-time motion style transfer
Ye et al. Synthesis of detailed hand manipulations using contact sampling
Jenkins et al. Automated derivation of behavior vocabularies for autonomous humanoid motion
CN104508709B (zh) 使用人体对对象进行动画化
Lau et al. Precomputed search trees: Planning for interactive goal-driven animation
Guerra-Filho et al. The human motion database: A cognitive and parametric sampling of human motion
Wang et al. 3D human motion editing and synthesis: A survey
CN102725038B (zh) 组合多传感输入以用于数字动画
KR20130082425A (ko) 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
CN102629388B (zh) 机械装备仿真系统生成方法
Cooper et al. Active learning for real-time motion controllers
Huang et al. Human motion synthesis from 3d video
CN116528016A (zh) 音视频合成方法、服务器和可读存储介质
JP2007527054A (ja) リグ・ベーキング
KR20150075909A (ko) 3차원 캐릭터 동작 편집방법 및 그 장치
KR20170108526A (ko) 모사학습 및 행동 조합에 기반한 로봇의 작업 행동궤적 생성 방법 및 그 장치
Mousas et al. Performance-driven hybrid full-body character control for navigation and interaction in virtual environments
JP5210401B2 (ja) 用例に基づく効率的なモーションデータベースのスタイリング
Mousas et al. Efficient hand-over motion reconstruction
CN109993818B (zh) 三维人体模型运动合成的方法、装置、设备及介质
Jang et al. Enriching a motion database by analogous combination of partial human motions
van Basten et al. Combining path planners and motion graphs
Goel et al. Interaction Mix and Match: Synthesizing Close Interaction using Conditional Hierarchical GAN with Multi‐Hot Class Embedding
Ruttkay et al. Facial animation by synthesis of captured and artificial data
Chan et al. Synthesizing Two‐character Interactions by Merging Captured Interaction Samples with their Spacetime Relationships

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5210401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250