JP4848515B2 - アバター動作制御システム、そのプログラム及び方法 - Google Patents
アバター動作制御システム、そのプログラム及び方法 Download PDFInfo
- Publication number
- JP4848515B2 JP4848515B2 JP2006162666A JP2006162666A JP4848515B2 JP 4848515 B2 JP4848515 B2 JP 4848515B2 JP 2006162666 A JP2006162666 A JP 2006162666A JP 2006162666 A JP2006162666 A JP 2006162666A JP 4848515 B2 JP4848515 B2 JP 4848515B2
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- motion
- control
- action
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
これに対し、非特許文献2で本発明に関連するシステムが提案されている。つまり、第三者視点及び追従制御を用いている。
Shin, H.J., Lee, J., Gleicher, M., Shin, S.Y. Computer Puppetry: An Importance-Based Approach, ACM Transactions on Graphics. 20 (2), 67-94, 2001. Hasegawa, S., Ishikawa, T., Naoki Hashimoto, N. Human Scale Haptic Interaction with a Reactive Virtual Human in a Realtime Physics Simulator. In Proc. of Advances in Computer Entertainment Technology 2005. Hamalainen, P., Ilmonen, T., Hoysniemi, J., Lindholm, M., Nykanen, A. Martial Arts in Artificial Reality, Proceedings of ACM Conference on Human Factors in Computing Systems (CHI 005), 781-790, 2005.
つまり、本発明は、前記非特許文献2及び3では解決することができなかった前述した2つの課題を解決する。
文献1(Zordan, V. B., Chiu, B., Majkowska, A., Fast, M. Dynamic Response for Motion Capture Animation. ACM Transactions of Graphics (Proc. of SIGGRAPH 2005), 24(3), 697-701,2005.)では、仮想的なキャラクターに衝撃が与えられた後の動力学シュミレーションの結果にもとづき、データベースから適切な動作データを探索して、動力学シミュレーションの結果と検索された動作データを混合することによって、衝撃に応じた自然なリアクション動作を生成する方法を提案している。
また、本発明は、限られた利用者の移動範囲の中でその移動範囲より広い仮想空間内を移動することができるアバター動作制御システムを提供することを目的とする。
アバターの状態から所定条件(衝撃を受ける、武器を投げられる、声をかけられる等の受動的動作)に該当することを判別したとき、適切なリアクション動作データを生成し、生成されたリアクション動作に追従制御する。そうすることで、他のキャラクターから攻撃を受けた場合に衝撃に対する適切なリアクション動作をとることができ、前記第1の課題を解決して環境とアバターとの物理的な相互作用を実現する。
入力姿勢から、利用者が行っているしぐさが所定条件(例えば、歩きの身ぶり、走るの身ぶり、早歩きの身ぶり、泳ぐ、登る、飛ぶ、よける、しゃがむ、振り返る等の能動的動作)に該当することを判別したとき、適切な動作を生成し、生成動作に追従制御する。そうすることで、例えば、利用者は、歩きの身ぶり、走るの身ぶり、早歩きの身ぶりをすることで、それぞれ仮想空間内で、アバターに、歩き、走る、早歩きの動作を行わせることができ、第2の課題を解決してモーションキャプチャーの領域よりも広くアバターが移動することができる。このとき、生成動作にアバターを完全に追従させるのではなく、入力姿勢への追従制御の比率を適切に制御することで、例えば、歩きながら手を振ったり等の、生成動作と利用者の動作を同時に実行させることができる。
なお、発明者は、発明技術を実際に実装したプロトタイプシステムを開発した(図3参照)。
これら前記の発明の概要は、本発明に必須となる特徴を列挙したものではなく、これら複数の特徴のサブコンビネーションも発明となり得る。
実施形態では、主にシステムについて説明するが、所謂当業者であれば明らかな通り、本発明はコンピュータで使用可能なプログラム及び方法としても実施できる。また、本発明はハードウェア、ソフトウェア、またはソフトウェア及びハードウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置または磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。
アバター状態は、シミュレーションの各時刻において、モーションキャプチャーからの入力姿勢にもとづき更新される。
アバターは、通常の状態では、モーションキャプチャー装置からの入力姿勢に追従する。
大きな衝撃がアバターに与えられたとき、主にリアクション動作データベースから検索されたリアクション動作に追従する。
利用者が歩行の身ぶりを行ったときには、モーションブレンディング技術を用いることで歩行動作が生成され、アバターはそれに応じて歩行動作に追従する。
リアクション動作又は歩行動作中でも、状況に応じてアバターは入力姿勢にも追従することが可能であるため、利用者はアバターを制御することができる。
文献6(Hodgins,, J. K., Wooten, W. L., Brogan, D. C. and O'Brien, J.F. Animating Human Athletes. SIGGRAPH '95 Proceedings,71-78, 1995. )、文献7(Laszlo J., van de Panne M., Fiume E. Limit Cycle Control and Its Application to the Animation of Balancing and Walking. In Proc. of SIGGRAPH 1996, 155-162, 1996. )の標準的な物理的シュミレーションにおいては、追従制御部は関節トルクを演算し、シュミレーションはその関節トルクから関節加速度を演算しているが、発明者は制御性の観点から角加速度を用いることを選択した。
アバター、及び、システムが操作するキャラクターなどの仮想人間は、多関節体としてモデル化される。本実施形態の人体モデルは、図4に示すように、20の体節、19の関節を有する多関節体によってモデル化されている。これは、コンピュータゲームで一般的に使用されるものと同様の、典型的な人体モデルである。
人体モデルの姿勢は、次の数式で表現される。
人モデルの速度M´及び加速度M´´も、(1)で示したものと同様の形式で示される。
本実施形態では、アバターの現在状態と目標動作から得られる目標状態にもとづいて、追従制御のアバターの加速度を求める、PD制御法を使用する。
PD制御部で関節回転を制御するために、回転及び回転速度を回転ベクトルとして扱う。
関節回転に加え、腰及び地面に接触する末端部位(足先、手先など)も制御される。
腰(末端部位)の位置pjは、次のように制御される。
本実施形態では、発明の本質的要素としての、動作生成部におけるリアクション動作生成処理と、制御司令部における入力姿勢及び生成動作の追従制御の混合比率の決定処理を工夫することで、衝撃時のリアクション動作を実現する。
動作データベースには、あらかじめ、いくつかのリアクション動作データを格納しておく。大きな衝撃がアバターに加えられ、アバターがバランスを崩したとき、本実施形態では、動作データベースから適切なリアクション動作データを検索し、追従制御の目標動作として用いる。加えられた衝撃やそのときのアバターの状態に応じて、最も自然なリアクション動作を実現するのに最適なリアクション動作データを検索するため、それぞれのリアクション動作データには、前もって自動的に算出したインデックスキーを付与しておく。このインデックスキーは、リアクション動作が開始された際のアバターのバランス状態と姿勢状態が含まれる。
XcoMは逆振り子モデルにもとづいており、次の式により算出される。
アバターに衝撃が与えられると、本実施形態では、まずはその衝撃が小さいものと仮定し、図5(a)に示すように、リアクション動作データは使用せず、追従制御の混合比率を単純に制御し始める。その後、各シミュレーションステップにおいて、アバターのバランス状況(XcoM及びXEEs)を算出する。一般に、XcoMがアバターのサポートポリゴンの外部にある場合、アバターはバランスを失っていると考えることができる(文献13)。このとき、最もアバターの状態に近いインデックスキーを有するリアクション動作データが用いられる。なお、サポートポリゴンとは、両足などのアバターが地面に接触している範囲全体を含む最小の凸多角形のことである。サポートポリゴンは、アバターの姿勢及び描画用の幾何形状モデルから、アバターと地面の間の接触面を計算し、その全ての接触面を含む凸包を計算することで、算出することができる。凸包計算の方法については、文献14などで説明されている(文献14:O'Rourke, J. Computational Geometry in C (Cambridge Tracts in Theoretical Computer Science), Cam-bridge University Press, 1998. )。アバターがバランスを失い始めたとき、つまり、アバターのXcoMがサポートポリゴンの外に移動したときに、そのときのアバターの状態から計算されたインデックスキーと、動作データベース中の各リアクション動作データのインデックスキーとを比較して、次の式で計算される、2つのインデックスキーの差が最も小さくなるリアクション動作データを検索する。
衝撃がアバターに与えられた直後は、XcoMの長さは小さく、その後、徐々に大きくなる。そのため、あまり早くリアクション動作データの検索を行ってしまうと、適切なリアクション動作データが検索されない。そこで、XcoMがサポートポリゴンを超えた後、指定された持続期間の間、バランス状況を算出し続け、初めてXcoMの長さが極大値となったときの状態が、リアクション動作データの検索に用いられる。
前説した考え方にもとづき、図5に示すように、入力姿勢への追従制御とリアクション動作への追従制御の混合比率は、実行しているリアクション動作の種類、現在の段階、リアクション動作開始からの経過時間より決定される。それぞれのリアクション動作データには、前もって各段階の切り替わるタイミングを示す時刻が設定されているものとする。最初の能動制御段階では、比率は線形に変化する。2番目のステップ付き能動制御段階では、しばらくは一定の比率を使用し、次の段階に切り替わる時刻の一定時間前から、同じく比率を線形に変化させる。
前記したように、アバターが転倒した後に、不自然な動作が生成されることを防ぐため、本実施形態では遷移動作を実行する。ここでは、利用者は常に両足で立っていると仮定し、転倒した状態から立ち上がるような動作データを目標動作として追従制御を行う。このとき、なるべく自然な遷移動作を実行するためには、入力姿勢(利用者の状態)及び現在の状態(アバター状態)にもとづき、動作データベースから適切な動作データを動的に計算することが望ましい。しかし、現在の実装では、それぞれのリアクション動作データに、適切な立ち上がる動作をあらかじめ手動で割り当てている。
本実施形態では、図2に示すように、利用者が歩行のしぐさを行うことで、追従制御の目標動作として歩行動作を生成する。アバターの歩行動作を開始するときには、利用者は、普段歩くときと同様に、手足を同時に動かして足踏みのしぐさを行う必要がある。アバターが歩行動作を始めた後は、利用者は必ずしも足に合わせて手を動かす必要はなく、利用者が足踏みを続ける限り、アバターも歩行動作を続ける。そのため、アバターが歩行動作を開始した後は、利用者は、アバターの上半身の動作を自由に操作することができる。例えば、利用者は、アバターに、歩きながら手を振ったり、他のキャラクターを打撃させたりすることができる。このようなインターフェースを実現するために、本実施形態では、利用者の体全体のしぐさ(歩行動作の開始判定に使用)と、利用者の下半身のしぐさ(歩行動作の継続判定に使用)を認識する。入力姿勢への追従制御と歩行動作への追従制御の比率もまた、この動作認識の結果にもとづいて制御される。
本実施形態では、動作生成部において、利用者の動作にもとづき、生成される歩行の速度や曲がる方向を制御するために、歩行動作の生成にモーションブレンディング技術を用いる(文献15:Park S. I., Shin H. J., Shin S. Y. On-line Locomotion Generation Based on Motion Blending. In Proc. of ACM SIGGRAPH Symposium on Computer Animation 2002, 113-120, 2002. )。もちろん、どのような動作生成の技術(例えば、モーショングラフ、ダイナミックシュミレーション等)も、本発明と組み合わせて使用することができる。
利用者のしぐさに応じてアバターの歩行動作を制御するためには、利用者が足踏みのしぐさを行っているかの判定だけではなく、利用者のしぐさから歩行動作の速度や曲がる方向などのパラメータを計算する必要がある。歩行方向(曲がる方向の角度)は利用者の腰の向きの変化から容易に算出できる。歩行速度を計算するために、図7に示すように、歩行動作を四つの状態に分け(右足上げ、右足下げ、左足上げ、左足下げ)、利用者が現在どの状態の動きを行っているかを検出することで、状態遷移の速度から歩行速度を計算する。利用者がどの歩行状態を行っているかは、利用者の腰、足及び手の速度にもとづいて(図8参照)、ファジールールを用いて判定する。
eright-leg-up(full)又はeleft-leg-up(full)のどちらかの確率が閾値を超えると、アバターは歩行動作を開始する。
歩行動作中に、次の歩行状態(例えば、現在の状態が右足上げであれば、次は右足下げ)eright-leg-down(lower))の可能性が閾値を越えたら、次の歩行状態へ遷移する。
歩行動作の実行中は、入力姿勢に対する追従制御の比率は、腰を含む下半身については常に0である。上半身については、利用者が全身で歩行動作のしぐさを行っている間、又は、利用者が手を全く動かしていない間は、比率は0である。一方、(6)の計算と同様に、利用者が手を動かす速度が一定値以上であれば、上半身の比率には1に近い値を設定する。このような比率制御により、歩行動作が開始された後は、利用者の上半身が歩行以外の動きを行ったときにのみ、アバターは利用者の上半身の姿勢に追従する。このように本実施形態では上半身と下半身で追従制御の比率を変更したが、複数の部位で追従制御の比率を変更することができる。たとえば、衝撃を受けた近傍部位は入力姿勢に対する追従制御の比率を小さくし、その衝撃を受けた近傍部位から離れる部位程入力姿勢に対する追従制御の比率を大きくすることもできる。
図10は本実施形態に係るモーションキャプチャーシステムのハードウェア構成図である。
本実施形態に係るモーションキャプチャーシステムは、コンピュータ10、表示装置20及びカメラ30からなる。この他、利用者に取り付けるマーカがある。
例えば、CD−ROMに格納されているアバター動作制御プログラムがHD13上に複製(インストール)され、必要に応じてアバター動作制御プログラムがメインメモリ12に読み出され、CPU11がかかるプログラムを実行することでアバター動作制御装置を構成する。
図11は本実施形態に係るシュミレーションシステムのブロック構成図である。
モーションキャプチャー部41は、カメラ20からの出力信号を受け、利用者の姿勢を計算し、入力姿勢として出力する。
入力姿勢用の追従制御部42は、出力された入力姿勢(目標とする入力姿勢)及びアバター状態を受けて制御加速度を求めて出力する。なお、たとえば、PD制御法を用いて制御加速度を算出する。
制御指令部44は、出力された動作状態及びアバター状態が所定状態に合致するか否かを判断し、合致している場合には対応する動作を動作生成部46に生成するように制御信号を出力する。また、制御指令部44は、所定状態に対応する混合比率を出力する。
生成動作用の追従制御部48は、出力された生成動作の姿勢(目標とする生成動作の姿勢)及びアバター状態を受けて制御加速度を求めて出力する。より詳細には、各時刻ごとに、生成動作の該当時刻の姿勢を目標姿勢として追従制御を行う。なお、たとえば、PD制御法を用いて制御加速度を算出する。
キャラクター制御部50はアバター以外の仮想空間内に存在するキャラクターの動作を制御する。
衝突処理部60はアバターとキャラクターの衝突を検出し、アバター状態とキャラクター状態を衝突に応じて更新する。
アバター状態は、腰の位置・向き・並進速度・回転速度、各関節の回転行列・回転速度(又は各回転軸の回転角度・回転角速度)からなる。
制御加速度は、腰の並進加速度・回転加速度、各関節の回転加速度(又は各回転軸の回転角加速度)からなる。ただし、足が地面に接触しているときは、足先の並進加速度・回転加速度も含める。
動作状態は、現在の状態を表すフラグ(通常状態・歩行動作中・リアクション動作中)、歩行状態(4種類)、リアクション動作のタイプ(3種類)、実行中のリアクション動作の各段階の切り替わりの時刻からなる。
図12ないし図15は本実施形態に係るシュミレーションシステムの動作フローチャートである。
モーションキャプチャー部41がカメラ30からの入力情報から入力姿勢を出力する(ステップ101)。
入力姿勢の追従制御部42において、アバター状態が入力姿勢に近付くような、制御加速度を計算する(ステップ111)。
動作認識部43において、入力姿勢・前の動作状態に応じて、現在の動作状態を認識する(ステップ121)。
制御指令部44が現在の動作状態が歩行動作であるか否かを判断し(ステップ131)、歩行動作でなければ制御指令部44が現在の動作状態がリアクション動作であるか否かを判断する(ステップ132)。
状態変化計算部45において、追従加速度・混合比率にもとづき、アバター状態を更新する(ステップ151)。
ステップ151の後、ステップ101に戻る。
前記ステップ131で歩行動作であると判断した場合には、制御指令部44において、動作状態にもとづき、歩行動作のパラメタを決定する(ステップ201)。
動作生成部46において、指定された歩行動作のパラメタと、動作データベース47に格納された動作データをもとに、動作ブレンディング処理を行って適切な歩行動作を生成する(ステップ221)。
生成動作の追従制御部48において、アバター状態が、生成動作の現在姿勢に近付くような、制御加速度を計算する(ステップ231)。
制御指令部44において、バランスを大きく崩した場合は、動作状態をリアクション動作中とし、リアクション動作のパラメタを動作生成部46に渡す(ステップ301)。
制御指令部44において、混合比率を計算する(ステップ311)。
動作生成部46は、制御指令部44から渡されたパラメタ(バランス状態)をもとに、適切なリアクション動作を生成する(ステップ321)。
状態変化計算部45において、追従加速度・混合比率にもとづき、アバター状態を更新する(ステップ341)。リアクション動作が終了した後に、ステップ101に戻る。
処理の終了は例えば試合形式の格闘ゲームであれば一試合終了と同時に終了する。試合の開始とともに再度処理がなされる。
11 CPU
12 DRAM
13 HD
15 キーボード
16 マウス
17 LANカード
18 CD−ROMドライブ
20 表示装置
30 カメラ
41 モーションキャプチャー部
42 (入力姿勢の)追従制御部
43 動作認識部
44 制御指令部
45 状態変化計算部
46 動作生成部
47 動作データベース
48 (生成動作の)追従制御部
50 キャラクタ制御部
60 衝突処理部
Claims (6)
- モーションキャプチャー装置と、
前記モーションキャプチャー装置から得られた利用者の入力姿勢とアバターの現在の状態から前記アバターの動作を追従制御する第1の追従制御手段と、
前記アバターの動作情報を予め記憶する動作情報記憶手段と、
前記動作情報記憶手段に記憶されている動作情報に基づいて、前記アバターの動作を生成する動作生成手段と、
前記動作生成手段が生成した動作を追従制御する第2の追従制御手段と、
前記アバターの現在の状態に基づいて、当該アバターの現在の状態が前記利用者の入力姿勢のみからは制御できない受動的な状態であり、前記利用者の入力姿勢とは異なる動作を前記アバターに行わせると判断される場合、又は、前記利用者の入力姿勢に基づいて、当該入力姿勢と異なる動作を前記アバターに行わせると判断される場合に、前記アバターに行わせる目標となる動作を特定して前記動作生成手段に制御信号を送ると共に、前記第1の追従制御手段による追従制御と、前記第2の追従制御手段による追従制御との混合比率を決定する制御指令手段と、
前記制御指令手段が決定した混合比率にしたがって、前記アバターの状態を変更する状態変化計算手段とを備え、
前記制御指令手段が、前記目標となる動作の動作変化に応じて、前記混合比率を変化させて決定することを特徴とするアバター動作制御システム。 - 請求項1に記載のアバター制御システムにおいて、
前記制御指令手段が、
前記アバターの動作状態が前記利用者の入力姿勢による制御の困難性を示す段階が大きくなるにしたがって、又は、前記入力姿勢と前記アバターに行わせる目標となる動作とが異なる度合いが大きくなるにしたがって、前記第2の追従制御手段が追従制御する割合を大きくすることを特徴とするアバター制御システム。 - 請求項1又は2に記載のアバター制御システムにおいて、
前記制御指令手段が、
前記アバターの身体の部位ごとに前記混合比率を異ならせて決定することを特徴とするアバター動作制御システム。 - 請求項1ないし3のいずれかに記載のアバター制御システムにおいて、
前記制御指令手段が、
前記目標となる動作が、前記アバターへの外的な作用に対するリアクション動作である場合に、前記目標となる動作として前記リアクション動作を特定し、前記動作生成手段に前記特定されたリアクション動作に関する制御信号を送ると共に、前記アバターが受けた外的な作用に応じた前記アバターの動作状態に対応する混合比率を決定することを特徴とするアバター制御システム。 - 請求項1ないし3のいずれかに記載のアバター制御システムにおいて、
前記制御指令手段が、
前記目標となる動作が、前記アバターを移動させる動作である場合に、前記目標となる動作として前記移動させる動作を特定し、前記動作生成手段に前記特定された移動させる動作に関する制御信号を送ると共に、前記目標となる動作の動作変化に応じて前記混合比率を決定することを特徴とするアバター制御システム。 - モーションキャプチャー装置から得られた利用者の入力姿勢とアバターの現在の状態から前記アバターの動作を追従制御する第1の追従制御手段、
前記アバターの動作情報を予め記憶する動作情報記憶手段、
前記動作情報記憶手段に記憶されている動作情報に基づいて、前記アバターの動作を生成する動作生成手段、
前記動作生成手段が生成した動作を追従制御する第2の追従制御手段、
前記アバターの現在の状態に基づいて、当該アバターの現在の状態が前記利用者の入力姿勢のみからは制御できない受動的な状態であり、前記利用者の入力姿勢とは異なる動作を前記アバターに行わせると判断される場合、又は、前記利用者の入力姿勢に基づいて、当該入力姿勢と異なる動作を前記アバターに行わせると判断される場合に、前記アバターに行わせる目標となる動作を特定して前記動作生成手段に制御信号を送ると共に、前記第1の追従制御手段による追従制御と、前記第2の追従制御手段による追従制御との混合比率を決定する制御指令手段、
前記制御指令手段が決定した混合比率にしたがって、前記アバターの状態を変更する状態変化計算手段としてコンピュータを機能させ、
前記制御指令手段が、前記目標となる動作の動作変化に応じて、前記混合比率を変化させて決定することを特徴とするアバター動作制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006162666A JP4848515B2 (ja) | 2006-06-12 | 2006-06-12 | アバター動作制御システム、そのプログラム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006162666A JP4848515B2 (ja) | 2006-06-12 | 2006-06-12 | アバター動作制御システム、そのプログラム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007334443A JP2007334443A (ja) | 2007-12-27 |
JP4848515B2 true JP4848515B2 (ja) | 2011-12-28 |
Family
ID=38933894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006162666A Active JP4848515B2 (ja) | 2006-06-12 | 2006-06-12 | アバター動作制御システム、そのプログラム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4848515B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954244B2 (en) | 2020-05-18 | 2024-04-09 | Sony Group Corporation | Information processing device and information processing method |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
CN106984041B (zh) * | 2011-02-11 | 2021-07-06 | 漳州市舟锋电子科技有限公司 | 一种人机互动控制系统 |
JP6275891B1 (ja) * | 2017-01-27 | 2018-02-07 | 株式会社コロプラ | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
JP7005294B2 (ja) * | 2017-11-08 | 2022-01-21 | 株式会社コーエーテクモゲームス | 情報処理装置、動作制御プログラム及び動作制御方法 |
WO2020084662A1 (ja) * | 2018-10-22 | 2020-04-30 | 株式会社ソニー・インタラクティブエンタテインメント | スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム |
JP7111645B2 (ja) * | 2019-03-28 | 2022-08-02 | 株式会社バーチャルキャスト | 制御プログラム |
US10997766B1 (en) | 2019-11-06 | 2021-05-04 | XRSpace CO., LTD. | Avatar motion generating method and head mounted display system |
JP6840876B1 (ja) | 2020-01-30 | 2021-03-10 | 株式会社ドワンゴ | アバタ表示装置、アバタ表示システム、アバタ表示方法およびアバタ表示プログラム |
JP7197217B2 (ja) * | 2021-06-04 | 2022-12-27 | 株式会社コナミアミューズメント | ゲームシステム、それに用いるコンピュータプログラム、及び制御方法 |
JP7372717B1 (ja) | 2023-03-30 | 2023-11-01 | mirrorX株式会社 | プログラム、情報処理装置及び方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4278072B2 (ja) * | 1999-06-17 | 2009-06-10 | 株式会社バンダイナムコゲームス | 画像生成システム及び情報記憶媒体 |
JP2002083286A (ja) * | 2000-09-06 | 2002-03-22 | Telecommunication Advancement Organization Of Japan | アバタ生成方法、装置及びそのプログラムを記録した記録媒体 |
JP4641602B2 (ja) * | 2000-09-19 | 2011-03-02 | 株式会社バンダイナムコゲームス | ゲームシステム及び情報記憶媒体 |
JP2004030502A (ja) * | 2002-06-28 | 2004-01-29 | Sangaku Renkei Kiko Kyushu:Kk | シミュレーション方法、シミュレーション装置およびシミュレーションプログラム |
-
2006
- 2006-06-12 JP JP2006162666A patent/JP4848515B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954244B2 (en) | 2020-05-18 | 2024-04-09 | Sony Group Corporation | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2007334443A (ja) | 2007-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4848515B2 (ja) | アバター動作制御システム、そのプログラム及び方法 | |
CN111260762B (zh) | 一种动画实现方法、装置、电子设备和存储介质 | |
CN110930483B (zh) | 一种角色控制的方法、模型训练的方法以及相关装置 | |
US10022628B1 (en) | System for feature-based motion adaptation | |
US10388053B1 (en) | System for seamless animation transition | |
Ishigaki et al. | Performance-based control interface for character animation | |
Brubaker et al. | Physics-based person tracking using the anthropomorphic walker | |
Kennaway | Synthetic animation of deaf signing gestures | |
US8648864B2 (en) | System and method for blended animation enabling an animated character to aim at any arbitrary point in a virtual space | |
Brubaker et al. | Physics-based person tracking using simplified lower-body dynamics | |
EP3950076A1 (en) | Method for controlling man-machine interaction and application thereof | |
KR20040008379A (ko) | 예제동작을 이용한 영상기반 동작복원방법 | |
Oshita et al. | A dynamic motion control technique for human‐like articulated figures | |
Oshita | Motion-capture-based avatar control framework in third-person view virtual environments | |
Lee et al. | The control of avatar motion using hand gesture | |
Hwang et al. | Performance-based animation using constraints for virtual object manipulation | |
Çimen | Animation models for interactive AR characters | |
Tang et al. | Interactive generation of falling motions | |
JP3973995B2 (ja) | アニメーション作成システム | |
Oshita | Multi-touch interface for character motion control using model-based approach | |
Ismail et al. | An overview on dynamic 3d character motion techniques in virtual environments | |
Sorel et al. | Dealing with variability when recognizing user's performance in natural 3D gesture interfaces | |
i Capó et al. | Automatic human body modeling for vision-based motion capture | |
Liang et al. | A motion-based user interface for the control of virtual humans performing sports | |
Ismail et al. | Editing Virtual Human Motion Techniques With Dynamic Motion Simulator And Controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110621 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110920 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |