JP4903115B2 - 画像生成装置及びそのプログラム - Google Patents

画像生成装置及びそのプログラム Download PDF

Info

Publication number
JP4903115B2
JP4903115B2 JP2007299590A JP2007299590A JP4903115B2 JP 4903115 B2 JP4903115 B2 JP 4903115B2 JP 2007299590 A JP2007299590 A JP 2007299590A JP 2007299590 A JP2007299590 A JP 2007299590A JP 4903115 B2 JP4903115 B2 JP 4903115B2
Authority
JP
Japan
Prior art keywords
motion
pattern
movement
character
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007299590A
Other languages
English (en)
Other versions
JP2009128922A (ja
Inventor
弘明 松場
和之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Xing Inc
Original Assignee
Brother Industries Ltd
Xing Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd, Xing Inc filed Critical Brother Industries Ltd
Priority to JP2007299590A priority Critical patent/JP4903115B2/ja
Publication of JP2009128922A publication Critical patent/JP2009128922A/ja
Application granted granted Critical
Publication of JP4903115B2 publication Critical patent/JP4903115B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像生成装置及びそのプログラムに関し、さらに詳細には、複数のパーツが関節で連結されたキャラクタの複数のポイントの座標位置を変化させて当該キャラクタの動的な画像を生成するための画像生成装置及びそのプログラムに関する。
従来より3次元の仮想的な人型のキャラクタを動的に変化させた画像を生成する画像生成装置が知られており、当該キャラクタのリアルな動作を再現するために、人間の動作をモーションキャプチャ等で計測してモーションデータを作成するようにしている。
この種の画像生成装置においては、キャラクタの運動パターンが少ないときには問題がない。しかし、近年ではキャラクタの動作をよりリアルにかつ多様に行わせることが必要となっており、そのために多数の運動パターンのモーションデータを用意しなければならなくなってきている。
そこで、このようなモーションデータ量の増大を抑える技術として、複数の運動パターンを補間する技術が提案されている。
この補間技術として、補間用モーションデータを用意しておき、2つの運動パターン同士のモーションデータを結合するときに、この補間用モーションデータを用いることで複数の運動パターンを補間する方法を採用するものがある。
しかし、このような方法では、運動パターンの種類が多くなるにつれてその数に応じた補間用モーションデータを用意しなければならず、よりリアルに複雑な動作を再現しようとすると、無数の補間用モーションデータが必要となる。
そこで、特許文献1には、2つの運動パターンのモーションデータの結合を、一方の運動パターンのモーションデータの後半部分と他方の運動パターンのモーションデータの前半部分とをそれぞれの重み付け(補間度合い)を変化させて補間する演算を行って一つの繋ぎ用のモーションデータを作成し、この繋ぎ用のモーションデータを補間用モーションデータとして用いることにより複数の運動パターンを結合する技術が開示されている。
例えば、図17に示すように、運動パターンAのモーションデータ(フレーム(1)〜フレーム(n))と運動パターンBのモーションデータ(フレーム(1)〜フレーム(m))とを結合する場合、運動パターンAの終了付近のモーションデータ(フレーム(n−4)〜フレーム(n))と運動パターンBの開始付近のモーションデータ(フレーム(1)〜フレーム(5))を補間することによって繋ぎ用のモーションデータ(フレーム(a)〜フレーム(e))を作成する。
このときの補間を、図18に示すように、運動パターンAのモーションデータのうち最終フレームの数フレーム前のフレーム(フレーム(n−4))から順次最終フレーム(フレーム(n))にかけてこの運動パターンAの結合比率を下げ、一方で運動パターンBの初期フレーム(フレーム(1))から順次所定期間後のフレーム(フレーム(5))にかけてこの運動パターンBの結合比率を上げて補間することによって行うことで、キャラクタのリアルな動作を再現することができる。
上述のように運動パターンAと運動パターンBとを補間して作成した繋ぎ用パターンのモーションデータによって、運動パターンAと運動パターンBとを結合して作成したモーションデータによって生成されるキャラクタの動的な画像を図19に示す。このモーションデータは、同図に示すように、運動パターンAのフレーム(1)〜(n−5)、繋ぎ用パターンのフレーム(a)〜(e)、運動パターンBのフレーム(6)〜(m)のフレームから構成される。
このように、特許文献1の補間技術を用いることによって、キャラクタのリアルな動作を再現しつつも、補間用モーションデータを用意しておく必要がなくなり、予め用意し記憶すべきデータ量を大幅に削減することができる。
特開2003−85592号公報
しかし、上記特許文献1の補間技術で補間して運動パターン同士を結合した場合、キャラクタの運動パターンによっては、生成したキャラクタ画像においてそのキャラクタ動作が不自然となってしまうことがある。
このようにキャラクタ動作が不自然となると、その画像を見る者に対して違和感や不快感を与えてしまうことになり、キャラクタをリアルに動作させる効果が半減してしまう虞がある。
そこで、かかる課題を解決すべく、請求項1に記載の発明は、複数のパーツが関節で連結され、前記複数のパーツとして少なくとも脚部、腕部、腰部、胴部及び頭部のそれぞれのパーツを有する人型のキャラクタの複数のポイントの座標位置を変化させて前記キャラクタの動的な画像を生成するための画像生成装置において、前記キャラクタの運動パターン毎に、当該運動パターンによる前記キャラクタの動作時間分の前記複数のポイントの座標位置を記憶する運動パターン記憶手段と、2つの前記運動パターンの結合を、一方の運動パターンによる前記キャラクタの動作終了付近と他方の運動パターンによる前記キャラクタの動作開始付近のそれぞれの前記座標位置を合成することによって行う運動パターン結合手段と、前記運動パターン結合手段によって結合した複数の運動パターンに基づいて、前記キャラクタの動的な画像を生成する画像生成手段と、を備え、前記運動パターン結合手段は、前記2つの運動パターンの結合開始付近で、これらの運動パターンにおける前記複数のポイントのうち、前記キャラクタの起立時の前記脚部のパーツの足部分、又は前記キャラクタの倒立時の前記腕部のパーツの手部分である特定のポイントの座標位置が、特定の座標方向で所定値以内の距離にある所定の位置関係にあるときに、前記2つの運動パターンのうち一方の運動パターンの前記動作終了付近のモーションデータと他方の運動パターンの前記動作開始付近のモーションデータを、前記一方の運動パターンのモーションデータのうち最終フレームの数フレーム前のフレームから順次最終フレームにかけて前記一方の運動パターンの結合比率を減少させ、一方で前記他方の運動パターンの初期フレームから順次所定期間後のフレームにかけて前記他方の運動パターンの結合比率を増加させて補間することによって作成した繋ぎ用のモーションデータを用いて前記運動パターンの結合を行い、前記特定のポイントの座標位置が前記所定の位置関係にないときには、前記繋ぎ用のモーションデータを用いた前記運動パターンの結合を行わないことを特徴とする。
また、請求項に記載の発明は、請求項1に記載の画像生成装置において、前記運動パターン結合手段は、前記2つの運動パターンの結合を、前記一方の運動パターンによるキャラクタ動作の終了から所定期間前までの間の動作期間におけるフレーム毎の座標位置と、前記他方の運動パターンによるキャラクタ動作の開始から前記所定期間後までの間にあるフレームの座標位置とを、前記フレーム毎にそれぞれの重み付けを変化させつつ演算した座標位置に置き換えることによって行うものであり、前記一方の運動パターンによるキャラクタ動作の終了から所定期間前の時点の前記特定のポイントの座標位置と、前記他の運動パターンによるキャラクタ動作の開始時点の前記特定のポイントの座標位置とが所定の位置関係にあるときに、前記運動パターンの結合を行うことを特徴とする。
また、請求項に記載の発明は、複数のパーツが関節で連結され、前記複数のパーツとして少なくとも脚部、腕部、腰部、胴部及び頭部のそれぞれのパーツを有する人型のキャラクタの複数のポイントの座標位置を変化させて前記キャラクタの動的な画像を生成するための画像生成装置のコンピュータに、前記キャラクタの運動パターン毎に、当該運動パターンによる前記キャラクタの動作時間分の前記複数のポイントの座標位置を記憶する運動パターン記憶手段に記憶された2つの前記運動パターンの結合を、一方の運動パターンによる前記キャラクタの動作終了付近と他方の運動パターンによる前記キャラクタの動作開始付近のそれぞれの前記座標位置を合成することによって行う運動パターン結合ステップであって、前記2つの運動パターンの結合開始付近で、これらの運動パターンにおける前記複数のポイントのうち、前記キャラクタの起立時の前記脚部のパーツの足部分、又は前記キャラクタの倒立時の前記腕部のパーツの手部分である特定のポイントの座標位置が、特定の座標方向で所定値以内の距離にある所定の位置関係にあるときに、前記2つの運動パターンのうち一方の運動パターンの前記動作終了付近のモーションデータと他方の運動パターンの前記動作開始付近のモーションデータを、前記一方の運動パターンのモーションデータのうち最終フレームの数フレーム前のフレームから順次最終フレームにかけて前記一方の運動パターンの結合比率を減少させ、一方で前記他方の運動パターンの初期フレームから順次所定期間後のフレームにかけて前記他方の運動パターンの結合比率を増加させて補間することによって作成した繋ぎ用のモーションデータを用いて前記運動パターンの結合を行い、前記特定のポイントの座標位置が前記所定の位置関係にないときには、前記繋ぎ用のモーションデータを用いて前記運動パターンの結合を行わない運動パターン結合ステップと、前記運動パターン結合ステップによって結合された複数の運動パターンに基づいて、前記キャラクタの動的な画像を生成する画像生成ステップと、を実行させることを特徴とするプログラムとした。
本発明によれば、2つの運動パターンの結合を、当該2つの運動パターンのモーションデータ(例えば、複数のポイントの座標位置の情報)を補間したモーションデータに基づいて生成したキャラクタの動画像が不自然な動作となることを抑制することができ、視覚的な違和感や不快感を与えることを抑えたキャラクタの動的な画像を生成することができる。
以下、本発明にかかる画像生成装置の一実施形態について、図面を参照して説明する。本実施形態における画像生成装置は、複数のパーツが関節で連結された3次元の仮想的なキャラクタの複数のポイントの座標位置を変化させ、当該キャラクタの動的な画像を生成する装置である。
本実施形態においては、3次元の仮想的なキャラクタを動的な画像を生成する画像生成装置を用いた運動支援システムを例に挙げて説明する。この運動支援システムは、3次元の仮想的なキャラクタをインストラクターとしてエアロビックスレッスンを行うものである。
[1.運動支援システムの概要]
まず、本発明の実施形態に係る運動支援システムについて図面を参照して説明する。図1は本実施形態に係る運動支援システムの概略構成図である。
本実施形態に係る運動支援システムSは、スポーツクラブなどの施設に設置され、3次元の仮想的なインストラクター(以下、「バーチャルインストラクター」と呼ぶ。)を表示してエアロビックスレッスンを行うための装置である。
この運動支援システムSは、図1に示すように、複数の運動パターンを組み合わせて1つの運動プログラムを作成する際に、当該運動プログラム用のバーチャルインストラクター動画情報(以下、「運動プログラム用動画情報」と呼ぶ。)を作成する画像生成装置として機能を有するサーバ装置1と、このサーバ装置1で生成した運動プログラム用動画情報及び楽曲情報に基づいた画像及び音声を再生する端末ユニット2とを備えている。なお、図示していないが、サーバ装置1には端末ユニット2を複数台接続可能となっており、システムの規模に応じて適宜増減可能となっている。
サーバ装置1は、ディスプレイ10等の表示手段、キーボード11、マウス12等の入力手段を接続可能に構成されており、サーバ装置1の管理者は、ディスプレイ10に表示された画像を見ながらキーボード11やマウス12などによりサーバ装置1の操作(例えば、端末ユニット2での運動プログラムの再生許可の設定など)が可能となっており、端末ユニット2からの要求に応じて、運動プログラム用動画情報を作成し、楽曲情報と共に端末ユニット2へネットワークケーブル3を介して送信する。
端末ユニット2は、運動ブースHに設置されており、端末装置20と、大型モニタ装置21と、スピーカ22と、入力操作器23とから構成されている。端末装置20は、ネットワークケーブル3を介してサーバ装置1に接続されており、サーバ装置1から送信される運動プログラム用動画情報及び楽曲情報を再生処理して、当該再生画像を大型モニタ装置21の画面上に表示し、再生楽曲をスピーカ22から出力する。
大型モニタ装置21の表示に従って、ユーザU1が運動プログラムの楽曲を入力操作器23により選択すると、この選択に応じてサーバ装置1により作成されたユーザU1専用の運動プログラムが端末装置20で再生される。そして、ユーザU1は、端末装置20によりスピーカ22を介して出力されるその運動プログラムの楽曲を聴きながら、端末装置20により大型モニタ装置21を介して表示されるバーチャルインストラクターの動画像に合わせて身体運動を行うことになる。
ここで、サーバ装置1は、ユーザU1の操作に応じて選択される楽曲の情報を端末ユニット2から取得し、この楽曲の演奏時間の長さで複数の運動パターンを組み合わせた運動プログラムを作成する。この運動プログラムは、複数の運動パターンを組み合わせた動画情報とユーザU1によって選択された楽曲情報とからなる。
本実施形態におけるサーバ装置1では、複数の運動パターンの組み合わせの際に、結合する運動パターン同士のモーションデータを一部補間した繋ぎ用のモーションデータ(以下、「ブレンドモーションデータ」と呼ぶ。)を用いて運動パターンを結合することによって、モーションデータのデータ量を削減することとしている。
ここで、サーバ装置1では、ブレンドモーションデータを用いたときにバーチャルインストラクターの動作が不自然とならない運動パターン同士の結合を判断して結合処理を行うようにしており、これにより、その画像を見る者に対して違和感や不快感を与えてしまうことを回避するようにしている。
[2.サーバ装置の構成及び動作]
以下、このように運動プログラム用動画情報を作成するサーバ装置1について図面を参照して具体的に説明する。図2はサーバ装置の主要な内部構成等を表したブロック図、図3はサーバ装置の運動パターンデータベースの格納情報の内容を示す図、図4はモーションデータのイメージを示す概念図、図5はマーカに対応した点及びボーンの関係を示した図、図6はモーションデータを示す図表、図7はモーションデータに基づいて作成した各カウント位置のバーチャルインストラクター画像の例を示す図、図8〜図10は2つの運動パターン同士の結合処理の説明図である。
(サーバ装置の構成)
サーバ装置1は、汎用のサーバコンピュータを適用可能であり、図2に示すように、各種制御処理を行うMPU(プロセッサ)100と、RAM101と、ROM102と、通信インターフェイス103と、ハードディスク装置104とを備えており、これらは内部バス105によって相互に接続されている。なお、内部バス105には、ディスプレイ10、キーボード11及びマウス12も接続されており、MPU100の処理に伴って各処理内容をディスプレイ10へ表示可能とすると共に、キーボード11やマウス12への入力に応じた操作内容をMPU100に送信するようにしている。
RAM101は、MPU100の処理に従ってデータ及びフォルダ等を一時的に記憶するワーキングメモリとして使用されるものであり、ROM102はMPU100が行う基本的な処理内容を規定したプログラム等を予め記憶している。通信インターフェイス103は、MPU100の制御によって、ネットワークケーブル3等を介して、端末装置20へ運動プログラム用動画情報や楽曲情報を送信したり、端末装置20から送信される制御データなどを受信したりする。この通信インターフェイス103は例えば、LAN(Local Area Network)インターフェイスを用いることができる。
ハードディスク装置104は、サーバ装置1が行う各種処理を規定するプログラム及び各種データを格納するデータベースなどを記憶するものであり、システムプログラム110やサーバプログラム111などのプログラムデータ、メニューデータベース112、ユーザデータベース113、運動パターンデータベース(運動パターン記憶手段に相当)114、足状態分類データベース115及び楽曲データベース116などのデータベースを記憶する。
システムプログラム110は、サーバ装置1が行う基本的な処理内容を規定したプログラムであり、サーバプログラム111は、サーバ装置1の各種機能を実行するための処理内容を規定したプログラムである。MPU100は、システムプログラム110を実行した状態で、サーバプログラム111を実行することによって、サーバ装置1としての各種機能を実行するようにしている。
メニューデータベース112は各種メニューに応じたデータを格納したものであり、これらのデータは端末装置20へ送信され、大型モニタ装置21に表示される。ユーザU1は、大型モニタ装置21に表示される楽曲選択メニューを見ながら入力操作器23を操作して、楽曲を決定する。すなわち、大型モニタ装置21に楽曲を選択する楽曲選択メニュー画面が表示され、ユーザU1はこの楽曲選択メニュー画面に応じて楽曲を決定する。このとき、ユーザU1が入力操作器23への操作によって楽曲を選択すると、この入力操作器23への操作がネットワークケーブル3を介してMPU100に通知され、MPU100は、当該選択された楽曲の演奏時間の長さの運動プログラム用動画情報を作成して、楽曲情報と共に、端末装置20へ送信するようにしている。このように送信された運動プログラム用動画情報及び楽曲情報は、端末装置20によって再生される。
このシステムプログラム110及びサーバプログラム111等は、例えば、ネットワークに接続されたサーバ等からネットワークケーブル3を介してハードディスク装置104にダウンロードされるようにしてもよく、また、CD−RやDVD−R等の記録媒体に記録して、図示しない記録媒体ドライブを介してハードディスク装置104に読み込まれるようにしてもよい。
MPU100は、サーバプログラム111を実行することによって、後述のように、運動パターンの結合を行う運動パターン結合手段、結合した複数の運動パターンに基づいてバーチャルインストラクターの動的な画像を生成する画像生成手段等として機能する。
ユーザデータベース113は、サーバ装置1への登録を行ったユーザの情報が格納されるものであり、ユーザの会員番号、年齢、体重、身長、運動履歴などが格納される。また、足状態分類データベース115は後述する足状態データを作成するためのデータを格納したデータベースであり、楽曲データベース116は運動プログラムで使用可能な複数の楽曲を格納したデータベースである。
運動パターンデータベース114は、バーチャルインストラクターが表現する各種運動パターン(以下、任意の運動パターンを表す場合には「モーション」と呼ぶことがある。)に応じたモーションデータが格納されるものであり、これらのモーションデータは、図3に示すように、運動パターン毎にそのパターン番号と対応付けて格納される。運動パターンとしては、例えば、「マーチ」、「サイドステップ1」、「サイドステップ2」、「オープン/クローズ」、「ボクササイズ」などがある。
ここで、運動パターンデータベース114に格納されるモーションデータは、複数のマーカを付した現実のインストラクターが行う動作をキャプチャーする等により各マーカの3次元空間の座標位置を計測して作成されるものであり、いわゆるバーチャルインストラクター(動体)を規定した内容となっている。1つのモーションデータは、8カウント(約4秒)の時間帯における各マーカの座標位置の変動内容を規定している。
図4は、具体的なモーションデータのイメージを示したものである。バーチャルインストラクターを表すキャラクタ画像4が、モーションデータに基づいて3次元コンピュータグラフィックス技術によりX軸、Y軸、Z軸で構成されるXYZ座標系に位置するように作成されることになる。このXYZ座標系とは異なるカメラ5の撮像方向(動画表示時の視点方向に相当)及び位置を定めるためのUVW座標系を設け、XYZ座標系とUVW座標系との相対関係を規定することで、ユーザが所望する方向及び位置からのバーチャルインストラクターの動画像が表示可能となる。
3次元コンピュータグラフィックス技術により生成されるキャラクタ画像4は、図5に示すように、人体の骨に相当するボーンBと呼ばれるリンク部材を回動自在に連結したものに、人間の皮膚に相当するスキンを被せて作成されるものであり、これにより脚部D1a,D1b、腕部D2a,D2b、腰部D3、胴部D4及び頭部D5のそれぞれのパーツが関節で連結された人型のキャラクタが表現される(図4参照)。なお、人型のキャラクタではなく、猫型、犬型などの動物型のキャラクタとして表現するようにしてもよい。
図5に示すボーンBの各ポイントに付された点P1〜P17が、上述した現実のインストラクターに付したマーカ位置に相当し、インストラクターが各種動作を行った所定時間(8カウント分)の各点P1〜P17の座標位置が各運動パターンのモーションデータの内容となっている。すなわち、各運動パターンのモーションデータには、図6に示すように、カウント(0)〜カウント(8)までの0.1カウント(1フレーム)毎の各ポイント(点P1〜P17)の座標位置(X座標位置、Y座標位置、Z座標位置)の情報が含まれており、MPU100は画像生成手段として、このモーションデータのカウント番号の少ないものから順に座標位置を取得していき、バーチャルインストラクターの動的な画像を生成することになる。なお、0.1カウント毎の複数のポイント(点P1〜P17)の座標位置をフレームデータと呼ぶ(図6参照)。また、図5に示す各点P1〜P17の位置及び個数は一例であり、生成するキャラクタ画像4の仕様、要求精度及びハード的なスペック等に応じてマーカの位置及び個数は適宜変更できる。
このようにモーションデータに基づいて作成した各カウント位置(カウント(0)〜カウント(8))のバーチャルインストラクター画像の例を図7に示す。図7(a)には運動パターンが「マーチ」であるときの各カウント位置のバーチャルインストラクター画像が示され、図7(b)には運動パターンが「サイドステップ1」であるときの各カウント位置のバーチャルインストラクター画像が示され、図7(c)には運動パターンが「サイドステップ2」であるときの各カウント位置のバーチャルインストラクター画像が示されている。なお、カウント(0)とカウント(8)のフレームデータは同様となることから、カウント(0)に代えてカウント(8)のデータとすることもできるが、ここでは理解を容易にするためにカウント(0)とカウント(8)とを区別して説明するものとする。
上述のようにサーバ装置1のMPU100は、ユーザU1によって選択された楽曲の演奏時間の長さに応じて、複数の運動パターンを組み合わせて運動プログラムを作成する。この運動パターン同士の結合は、一方の運動パターン(以下、「第1運動パターン」とも呼ぶ。)によるバーチャルインストラクターの動作終了付近と他方の運動パターン(以下、「第2運動パターン」とも呼ぶ。)によるバーチャルインストラクターの動作開始付近のそれぞれのモーションデータを合成することによって行うものであり、以下において図面を参照して具体的に説明する。図8〜図10は本実施形態のサーバ装置1において2つの運動パターン同士の結合処理の内容を説明するための図である。
まず、運動パターン「マーチ」(図7(a)参照)に次の運動パターン「サイドステップ1」(図7(b)参照)を結合するときの状態を例に挙げて説明する。
図8(a)に示すように、サーバ装置1のMPU100は、運動パターン結合手段として、運動パターン「マーチ」と「サイドステップ1」との結合を、運動パターン「マーチ」によるバーチャルインストラクターの動作終了時付近と運動パターン「サイドステップ1」によるバーチャルインストラクターの動作開始時付近のそれぞれのモーションデータを合成することによって行う。
具体的には、運動パターン「マーチ」のカウント(7.5)からカウント(8)までのモーションデータのそれぞれに、運動パターン「サイドステップ1」によるバーチャルインストラクターの動作開始位置のカウント(0)のモーションデータを互いに重み付け(結合比率)を変化させつつ演算(図8(b)参照)した座標位置に置き換えるようにしている。
運動パターン「マーチ」のカウント(7.6)のフレームでは、重み付けを「マーチ」が0.8、「サイドステップ1」が0.2となるようにそれぞれのモーションデータに重み付けを行う。すなわち、運動パターン「マーチ」のカウント(7.6)のフレームにおける各ポイント(点P1〜P17)の座標位置のデータに0.8を積算し、運動パターン「サイドステップ1」のカウント(0)のフレームにおける各ポイント(点P1〜P17)の座標位置のデータに0.2を積算して、これらを各ポイント(点P1〜P17)毎に合算することによって、ブレンドモーションデータを作成する。同様にカウント(7.7)〜(8)まで順次、0.1カウント毎に、重み付け(「マーチ」,「サイドステップ1」)を(0.4,0.6)→(0.6,0.4)→(0.8,0.2)→(1,0)としてブレンドモーションデータを作成する。
すなわち、第1運動パターンCに第2運動パターンDを結合するとしたとき、補間するフレームにおいて各ポイント(点P1〜P17)のそれぞれの座標位置が、(XCp1,YCp1,ZCp1)〜(XCp17,YCp17,ZCp17)である第1運動パターンCと、(XDp1,YDp1,ZDp1)〜(XDp17,YDp17,ZDp17)である第2運動パターンDとに重み付け(α,β)(α+β=1)を行って加算し、ブレンドモーションデータの各ポイント(点P1〜P17)の位置座標を(αXCp1+βXDp1,αYCp1+βYDp1,αZCp1+βZDp1)〜(αXCp17+βXDp17,αYCp17+βYDp17,αZCp17+βZDp17)とする演算を、重み付け(α,β)を変化(順次αを減少、βを増加)させつつ、第1運動パターンCのフレーム(7.5)〜(8)のそれぞれのフレーム毎に行う。なお、α≧0,β≧0,α+β=1とする。
このように結合する運動パターンにおいて、互いの運動パターンのモーションデータで補間したブレンドモーションデータを作成することによって、運動パターンの切り替わり時に、バーチャルインストラクターを自然な切り替わり方で動作させることができる。
また、異なる組み合わせとして、運動パターン「サイドステップ1」に運動パターン「マーチ」を結合するために作成されるブレンドモーションデータは、図9に示すように、ブレンドモーションデータのうち中間のフレームでバーチャルインストラクターの両足が浮いた状態となるが、バーチャルインストラクターが右足立ちから左足立ちに軽くジャンプした動作となることから、バーチャルインストラクターを自然な切り替わり方で動作させることができることになる。
ところが、結合する運動パターンによっては、図8,9に示すような自然な切り替わり方で運動パターンの移行ができないことがある。
例えば、運動パターン「マーチ」に運動パターン「サイドステップ2」を結合するために作成されるブレンドモーションデータは、図10に示すように、バーチャルインストラクターの右足が浮いた状態で左足が左側に滑りながら移動することになることから、バーチャルインストラクターが不自然な動作を行うことになり、その画像を見る者に対して違和感や不快感を与えてしまうことになり、バーチャルインストラクターをリアルに動作させる効果が半減してしまう虞が有る。
そこで、本実施形態におけるサーバ装置1では、2つの運動パターンの結合開始付近で、各運動パターンのバーチャルインストラクターにおける特定のポイントの座標位置が所定の位置関係にあるか否かの結合判定処理を行い、所定の位置関係にあるときに運動パターンの結合を行うようにし、所定の位置関係にないときには運動パターンの結合を行わないようにしている。そして、運動パターンを結合しないと判断したときには、別の運動パターンを選択して上記結合判定処理を行い、順次結合判定処理で結合可能と判断した運動パターンを結合することで、運動プログラムを作成する。このようにすることで、運動プログラム全体を通して、バーチャルインストラクターを自然に動作させることができ、ユーザは快適にバーチャルインストラクターを見ながらエアロビックスを行うことができる。
ここで、上記結合処理で着目するバーチャルインストラクターの上記「特定のポイント」は、バーチャルインストラクターの各ポイント(点P1〜P17)のうち接地位置(Z=0)を含む所定の座標領域(例えば、0≦Z≦30)にあるポイントであり、バーチャルインストラクターの起立時には、その脚部D1a,D1bのパーツの足部分(ここでは、図5に示すP17,P14の位置とする。)、又はバーチャルインストラクターの倒立時には、その腕部D2a,D2bのパーツの手部分(図5に示すP9,P6の位置とする。)とする。また、「所定の位置関係」とは、特定の座標方向(X座標方向又はY座標方向)で所定値以内の距離にある関係であるものとする。
従って、例えば、図10に示す例では、運動パターン「マーチ」のフレーム(7.5)における左足部分のX座標位置と運動パターン「サイドステップ2」のフレーム(0)における左足部分のX座標位置がかなり離れており、この距離を上記所定値を超えるように設定すれば、運動パターン「マーチ」と運動パターン「サイドステップ2」とは結合不可と判定することになり、運動パターン「マーチ」には、別の運動パターンが結合されることになる。
一方、図9に示す例では、運動パターン「サイドステップ1」のフレーム(7.5)における左足部分のX座標位置と運動パターン「マーチ」のフレーム(0)における左足部分のX座標位置は図10に示す例のようには離れておらず、この距離を上記所定値以内と設定すれば、運動パターン「マーチ」と運動パターン「サイドステップ1」とは結合可能と判定することになる。
このようにバーチャルインストラクターの起立時には、脚部のパーツの足部分のX座標方向の距離に着目することで、不自然な動作とならない運動パターンの結合を選択することが可能となるが、バーチャルインストラクターの倒立時には、足部分に代えて手部分のX座標方向或いはY座標方向の距離に着目することで、同様に不自然な動作とならない運動パターンの結合を選択することができる。
ここで、本実施形態におけるサーバ装置1では、この運動パターンの結合判定を容易にするために、図3に示すように運動パターンデータベース114に各運動パターンのモーションデータに足状態データが関連付けて記憶される。
この足状態データは、足状態分類データベース115によって分類分けされるものであり、この分類分けは、図11(a),(b)に示すように、原点0を基準とした足部分の座標位置をX軸,Y軸の各方向について大きく7区分の状態(逆極幅広、逆幅広、逆幅狭、中央、幅狭、幅広、極幅広)に分け、またZ軸の方向について2区分(接地、浮き)に分けることによって行うこととしている。そして、MPU100は、各運動パターンのモーションデータをこの足状態分類データベース115に基づいて分類分けして運動パターンデータベース114に記憶する。なお、バーチャルインストラクターの倒立時には、同様に手状態データが必要となるが、同様の分類分けとすることができ、ここでは説明を省く。
また、この足状態データは、運動パターンにおける各カウント(図6参照)に対応させたデータとするが、運動パターンの結合判断に用いる特定のフレーム(第1運動パターンのフレーム(7.5)と、第2運動パターンのフレーム(0))のみを着目することとしているので、図12に示すように、初期状態(フレーム(0))と最終状態(フレーム(7.5))のみの2つのフレームに対応させたデータのみを持たせることとしてもよい。
そして、結合する第1運動パターンのフレーム(7.5)における足部分の状態と第2運動パターンのフレーム(0)における足部分の初期状態とが、異なる区分にあるとき,結合不可と判断し,逆に同じ区分にあれば結合可能と判断する。
(サーバ装置1の動作)
以上のように構成されるサーバ装置1の動作のうち、その特徴的部分である画像生成処理動作について図面を参照して具体的に説明する。図13はサーバ装置1における画像生成処理のフローチャート、図14は図13に示すモーション結合判定処理のフローチャート、図15は図13に示すモーション結合処理のフローチャート、図16は足状態データ作成処理のフローチャートである。なお、以下の処理は、サーバ装置1のMPU100が上述した運動パターン結合手段、画像生成手段等として機能することによって実行されるものである。
まず、サーバ装置1のMPU100は、ネットワークケーブル3を介して、運動プログラム用の楽曲一覧を表示するための画像情報を端末装置20へ送信する(ステップS10)。端末装置20はこの画像情報を受信すると、大型モニタ装置21に受信した画像情報に応じて楽曲一覧を表示する。MPU100は、ユーザU1が入力操作器23への操作により楽曲の選択を行うまで待つことになる(ステップS11)。
ユーザが入力操作器23を操作して運動プログラム用の楽曲を選択すると、端末装置20からネットワークケーブル3を介して楽曲選択情報がサーバ装置1へ送信される。MPU100は、この楽曲選択情報を受信すると、当該情報に応じた楽曲の演奏時間を楽曲データベース116から抽出し、この演奏時間に応じた長さの運動プログラムを生成するために必要モーション数Nを取得する(ステップS12)。
次に、MPU100は、運動パターンデータベース114から初期モーションの運動パターンをランダムに選択し、カウンタiを1に設定して(ステップS13)、ステップS14の処理へ移行する。ステップS14において、MPU100は、カウンタiに1を加算する。
次に、MPU100は、結合用の運動パターンとして結合未判定のモーションmを運動パターンデータベース114からランダムに取得し(ステップS15)、ステップS16のモーション結合判定処理に移行する。このモーション結合判定処理は、図14におけるステップS30〜S35までの処理であり、後で詳述する。
その後、MPU100は、ステップS16におけるモーション結合判定が「許可」であったか否かを判定する(ステップS17)。この処理でモーション結合判定が「許可」ではなかったと判定すると(ステップS17:No)、MPU100は、ステップS15に処理を戻し、モーション結合判定が「許可」となるまで、ステップS15からS16の処理を繰り返す。
一方、ステップS16におけるモーション結合判定が「許可」であるとき(ステップS17:Yes)、MPU100は、モーションmをモーションiとして設定し(ステップS18)、モーション結合判処理を行う(ステップS19)。このモーション結合処理は、図15におけるステップS40〜S44の処理であり、後で詳述する。
次に、MPU100は、カウンタiが必要モーション数Nと同じ値になったか否かを判定する(ステップS20)。この処理において、iとNとが等しくないと判定したとき、すなわちN個の運動パターンのモーションデータが結合されていないとき(ステップS20:No)、MPU100は、処理をステップS14に戻し、ステップS14〜S19までの処理をN個の運動パターンのモーションデータを結合するまで繰り返す。
一方、iとNとが等しくなったとき(ステップS20:Yes)、MPU100は、ステップS12で取得した楽曲選択に応じた楽曲情報を楽曲データベース116から取り出し、この楽曲情報と上記処理で作成した運動プログラムの画像情報(N個の運動パターンのモーションデータを結合した情報)とを通信インターフェイス103を介して端末装置20へ送信し、端末装置20において再生させる(ステップS21)。すなわち、端末装置20は、ユーザU1が入力操作器23により選択した楽曲に応じた運動プログラム用画像情報及び楽曲情報を受信すると、受信した運動プログラム用画像情報に応じたバーチャルインストラクター動画像を大型モニタ装置21に表示し、また受信した楽曲情報に応じた音波をスピーカ22から出力する。これにより、ユーザU1は選択した楽曲をスピーカ22から流しながら、複数の運動パターンでバーチャルインストラクターを動作させた画像を大型モニタ装置21に表示して、楽曲の音楽に合わせてエアロビックスエクササイズを実行することができることとなる。
ステップS21の処理を終了すると、MPU100は、キーボード11やマウス12の操作等によるユーザからの終了指令があったか否かを判定する(ステップS22)。この処理において、MPU100は、ユーザからの終了指令があったと判定すると(ステップS22:Yes)、動画生成処理を終了し、ユーザからの終了指令がないと判定すると(ステップS22:No)、処理をステップS10に移行する。
次に、ステップS16におけるモーション結合判定処理について、図14を参照して具体的に説明する。
図14に示すように、モーション結合判定処理を開始すると、MPU100は、モーション(i−1)の左足最終状態とモーションmの左足初期状態が接地状態であるか否かを判定する(ステップS30)。この判定は運動パターンデータベース114に格納した各運動パターン毎の足状態データに基づいて行われる。
この処理において、いずれのモーションについても左足が接地状態であると判定すると(ステップS30:Yes)、MPU100は、モーション(i−1)の左足最終状態とモーションmの左足初期状態が所定距離内にあるか否かを判定する(ステップS31)。
ステップS31において、各モーションの左足状態が所定距離内にないと判定すると(ステップS31:No)、MPU100は、結合判定を「不許可」とする(ステップS32)。
ステップS30において、各モーションの左足状態が接地状態ではないと判定したとき(ステップS30:No)、或いは各モーションの左足状態が所定距離内にあると判定すると(ステップS31:Yes)、MPU100は、モーション(i−1)の右足最終状態とモーションmの右足初期状態が接地状態であるか否かを判定する(ステップS33)。
この処理において、各モーションの右足状態が接地状態にあると判定すると(ステップS33:Yes)、MPU100は、モーション(i−1)の右足最終状態とモーションmの右足初期状態が所定距離内にあるか否かを判定する(ステップS34)。
ステップS34において、各モーションの右足状態が所定距離内にないと判定すると(ステップS34:No)、MPU100は、結合判定を「不許可」とする(ステップS32)。
一方、ステップS33において、各モーションの右足状態が接地状態ではないと判定したとき(ステップS33:No)、或いはステップS34において、各モーションの右足状態が所定距離内にあると判定すると(ステップS34:Yes)、MPU100は、結合判定を「許可」とする(ステップS35)。ステップS32、S35の処理が終了すると、MPU100は、結合判定処理を終了する。
次に、ステップS19におけるモーション結合処理について、図15を参照して具体的に説明する。
図15に示すように、モーション結合判定処理を開始すると、MPU100は、運動パターンデータベース114からモーション(i−1)の終了付近の複数フレームのデータ(以下、「データA」とする。)を取得する(ステップS40)。ここで、終了付近の複数フレームは、上述のようにフレーム(7.5)〜(8)までの6個のフレームとしている。
次に、MPU100は、モーション(i)の動作開始時付近のデータである初期フレームのデータ(以下、「データB」とする。)を運動パターンデータベース114から取得する(ステップS41)。ここでは、MPU100は、初期フレームのデータとしてフレーム(0)のデータを取得する。
次に、MPU100は、指定比率により、データAをデータBとブレンドする(ステップS42)。具体的には、モーション(i−1)の終了付近の各フレーム(フレーム(7.5)〜(8))の各フレームデータ〔各ポイント(点P1〜P17)のそれぞれの座標位置(X(i-1)p1,Y(i-1)p1,Z(i-1)p1)〜(X(i-1)p17,Y(i-1)p17,Z(i-1)p17)〕にモーション(i)の初期フレームのフレームデータ〔各ポイント(点P1〜P17)のそれぞれの座標位置(Xip1,Yip1,Zip1)〜(Xip17,Yip17,Zip17)〕をフレーム(7.5)〜(8)ごとに順次モーション(i−1)の加算比率(α,β)を変えながら加算して、ブレンドモーションデータのフレーム(a)〜(f)(以下、「データC」とする。)の各ポイント(点P1〜P17)の位置座標を(αX(i-1)p1+βXip1,αY(i-1)p1+βYip1,αZ(i-1)p1+βZip1)〜(αX(i-1)p17+βXip17,αY(i-1)p17+βYip17,αZ(i-1)p17+βZip17)とする演算する。なお、α≧0,β≧0,α+β=1とする。
なお、結合方法として、2つの運動パターンの結合を、一方の運動パターンによるバーチャルインストラクターの動作の終了から所定期間前までの間の動作期間におけるフレーム毎の各ポイント(点P1〜P17)の座標位置と、他方の運動パターンによるバーチャルインストラクターの動作の開始から所定期間後までの間にあるフレームの各ポイント(点P1〜P17)の座標位置とを、フレーム毎にそれぞれの重み付けを変化させつつ演算した座標位置に置き換えることによって行うものであればよく、勿論上述したようにモーション(i−1)のフレーム(7.5)〜(8)を補間するデータを、モーション(i)のフレーム(0)のみとすることが望ましいが、例えば、モーション(i−1)のそれぞれのフレーム(7.5)〜(8)にモーション(i−1)のそれぞれフレーム(0)〜(0.5)を対応させ、結合比率(重み付け)を変えながら演算(補間)してブレンドモーションデータを作成するようにしてもよい。
次に、MPU100は、モーション(i−1)のデータAをデータCに置き換えてモーション(i−1)’のモーションデータを作成する(ステップS43)。すなわち、モーション(i−1)のモーションデータのうちフレーム(7.5)〜(8)のデータを、ブレンドモーションデータのフレーム(a)〜(f)のデータに置き換えて、モーション(i−1)’のモーションデータを作成する。そして、MPU100は、このモーション(i−1)’のモーションデータにモーション(i)のモーションデータを結合する(ステップS44)。このようにMPU100は、2つの運動パターンの結合を、一方の運動パターンによるバーチャルインストラクターの動作終了付近と他方の運動パターンによるバーチャルインストラクターの動作開始付近のそれぞれの座標位置を合成することによって行う運動パターン結合手段として機能する。そして、2つの運動パターンの結合開始付近で、これらの運動パターンにおける複数のポイント(点P1〜P17)のうちの特定のポイントの座標位置が所定の位置関係にあるときに運動パターンの結合を行い、所定の位置関係にないときには運動パターンの結合を行わないようにしている。例えば、一方の運動パターンによるバーチャルインストラクターの動作の終了から所定期間前の時点の特定のポイントの座標位置と、他の運動パターンによるバーチャルインストラクター動作の開始時点の特定のポイントの座標位置とが所定の位置関係にあるときに運動パターンの結合を行うようにする。
このように本実施形態におけるサーバ装置1では、2つの運動パターンの結合開始付近で、これらの運動パターンにおける複数のポイント(点P1〜P17)のうちの特定のポイントの座標位置が所定の位置関係にあるときに運動パターンの結合を行い、所定の位置関係にないときには結合しないこととしているので、運動パターンの切り替わり時に、バーチャルインストラクターを自然な切り替わり方で動作させることができるものである。
ここで、図12に示す足状態データをMPU100により作成する処理について、図16を参照して具体的に説明する。図16は足状態データ作成処理のフローチャートである。
図16に示すように、足状態データ処理を開始すると、MPU100は、運動パターンデータベース114から足状態データを作成する運動パターンのモーションデータを取り出し(ステップS50)、このモーションデータのうち足部分(右足と左足)の座標位置を抽出する(ステップS51)。
次に、MPU100は、足部分の座標位置と足状態分類データベース115とからバーチャルインストラクターの足状態を分類して足状態データを作成し、各運動パターンに関連付けて運動パターンデータベース114に格納する(ステップS52)。
このように本実施形態におけるサーバ装置1は、運動パターン毎に足状態データを作成するようにしていることから、運動パターン同士の結合の許可・不許可を容易に判定することができ、運動プログラムを作成するときに、サーバ装置1の処理負荷を低減することができる。なお、上述した手状態データも同様の手順及びデータベースを用いて作成することが可能である。
以上、本発明の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
例えば、上述においては、運動パターンの結合の可否を判断するための特定ポイントを足部分又は手部分として説明したが、これは一例に過ぎず、他の部位であってもかまわない。例えば、バーチャルインストラクターの各ポイントのうち、壁やバーなどとの接触部分や、バーチャルインストラクターが横臥したときの床との接触部分に対応する領域であってもよい。このように、バーチャルインストラクターの各ポイントのうち、バーチャルインストラクターが壁、床、その他の障害物などに接触する領域及びその近傍を含む領域にあるポイントを特定ポイントとすることができる。また、運動パターンの結合の可否を判断するための「所定の位置関係」をX座標方向又はY座標方向として説明したが、バーチャルインストラクターの視点方向(カメラ5の撮像方向)によっては、Z座標方向、或いはXY座標方向などにしてもよい。
また、運動プログラムを作成する際に、運動パターンデータベースからランダムに運動パターンを選択することとしたが、楽曲に合うような運動パターンを選択するようにしても良い。
本発明の一実施形態に係る運動支援システムの概略構成図である。 サーバ装置の主要な内部構成等を表したブロック図である。 サーバ装置の運動パターンデータベースの格納情報の内容を示す図表である。 モーションデータのイメージを示す概念図である。 マーカに対応した点及びボーンの関係を示した図である。 モーションデータを示す図表である。 モーションデータに基づいて作成した各カウント位置のバーチャルインストラクター画像の例を示す図である。 2つの運動パターン同士の結合処理の説明図である。 2つの運動パターン同士の結合処理の説明図である。 2つの運動パターン同士の結合処理の説明図である。 足状態分類データベースの説明図である。 動作パターンデータベースの足状態データの図表である。 サーバ装置における画像生成処理のフローチャートである。 図13に示すモーション結合判定処理のフローチャートである。 図13に示すモーション結合処理のフローチャートである。 足状態データ作成処理のフローチャートである。 従来の画像生成装置における運動パターンの結合の説明図である。 従来の画像生成装置における運動パターンの結合の説明図である。 従来の画像生成装置における運動パターンの結合の説明図である。
符号の説明
1 サーバ装置
2 端末ユニット
4 キャラクタ画像
5 カメラ
10 ディスプレイ
11 キーボード
12 マウス
20 端末装置
21 大型モニタ装置
22 スピーカ
23 入力操作器
100 MPU
101 RAM
102 ROM
103 通信インターフェイス
104 ハードディスク装置
105 内部バス
110 システムプログラム
111 サーバプログラム
112 メニューデータベース
113 ユーザデータベース
114 運動パターンデータベース
115 足状態分類データベース
116 楽曲データベース

Claims (3)

  1. 複数のパーツが関節で連結され、前記複数のパーツとして少なくとも脚部、腕部、腰部、胴部及び頭部のそれぞれのパーツを有する人型のキャラクタの複数のポイントの座標位置を変化させて前記キャラクタの動的な画像を生成するための画像生成装置において、
    前記キャラクタの運動パターン毎に、当該運動パターンによる前記キャラクタの動作時間分の前記複数のポイントの座標位置を記憶する運動パターン記憶手段と、
    2つの前記運動パターンの結合を、一方の運動パターンによる前記キャラクタの動作終了付近と他方の運動パターンによる前記キャラクタの動作開始付近のそれぞれの前記座標位置を合成することによって行う運動パターン結合手段と、
    前記運動パターン結合手段によって結合した複数の運動パターンに基づいて、前記キャラクタの動的な画像を生成する画像生成手段と、を備え、
    前記運動パターン結合手段は、
    前記2つの運動パターンの結合開始付近で、これらの運動パターンにおける前記複数のポイントのうち、前記キャラクタの起立時の前記脚部のパーツの足部分、又は前記キャラクタの倒立時の前記腕部のパーツの手部分である特定のポイントの座標位置が、特定の座標方向で所定値以内の距離にある所定の位置関係にあるときに、前記2つの運動パターンのうち一方の運動パターンの前記動作終了付近のモーションデータと他方の運動パターンの前記動作開始付近のモーションデータを、前記一方の運動パターンのモーションデータのうち最終フレームの数フレーム前のフレームから順次最終フレームにかけて前記一方の運動パターンの結合比率を減少させ、一方で前記他方の運動パターンの初期フレームから順次所定期間後のフレームにかけて前記他方の運動パターンの結合比率を増加させて補間することによって作成した繋ぎ用のモーションデータを用いて前記運動パターンの結合を行い、
    前記特定のポイントの座標位置が前記所定の位置関係にないときには、前記繋ぎ用のモーションデータを用いた前記運動パターンの結合を行わない
    ことを特徴とする画像生成装置。
  2. 前記運動パターン結合手段は、
    前記2つの運動パターンの結合を、前記一方の運動パターンによるキャラクタ動作の終了から所定期間前までの間の動作期間におけるフレーム毎の座標位置と、前記他方の運動パターンによるキャラクタ動作の開始から前記所定期間後までの間にあるフレームの座標位置とを、前記フレーム毎にそれぞれの重み付けを変化させつつ演算した座標位置に置き換えることによって行うものであり、
    前記一方の運動パターンによるキャラクタ動作の終了から所定期間前の時点の前記特定のポイントの座標位置と、前記他の運動パターンによるキャラクタ動作の開始時点の前記特定のポイントの座標位置とが所定の位置関係にあるときに、前記運動パターンの結合を行う
    ことを特徴とする請求項1に記載の画像生成装置。
  3. 複数のパーツが関節で連結され、前記複数のパーツとして少なくとも脚部、腕部、腰部、胴部及び頭部のそれぞれのパーツを有する人型のキャラクタの複数のポイントの座標位置を変化させて前記キャラクタの動的な画像を生成するための画像生成装置のコンピュータに、
    前記キャラクタの運動パターン毎に、当該運動パターンによる前記キャラクタの動作時間分の前記複数のポイントの座標位置を記憶する運動パターン記憶手段に記憶された2つの前記運動パターンの結合を、一方の運動パターンによる前記キャラクタの動作終了付近と他方の運動パターンによる前記キャラクタの動作開始付近のそれぞれの前記座標位置を合成することによって行う運動パターン結合ステップであって、
    前記2つの運動パターンの結合開始付近で、これらの運動パターンにおける前記複数のポイントのうち、前記キャラクタの起立時の前記脚部のパーツの足部分、又は前記キャラクタの倒立時の前記腕部のパーツの手部分である特定のポイントの座標位置が、特定の座標方向で所定値以内の距離にある所定の位置関係にあるときに、前記2つの運動パターンのうち一方の運動パターンの前記動作終了付近のモーションデータと他方の運動パターンの前記動作開始付近のモーションデータを、前記一方の運動パターンのモーションデータのうち最終フレームの数フレーム前のフレームから順次最終フレームにかけて前記一方の運動パターンの結合比率を減少させ、一方で前記他方の運動パターンの初期フレームから順次所定期間後のフレームにかけて前記他方の運動パターンの結合比率を増加させて補間することによって作成した繋ぎ用のモーションデータを用いて前記運動パターンの結合を行い、前記特定のポイントの座標位置が前記所定の位置関係にないときには、前記繋ぎ用のモーションデータを用いて前記運動パターンの結合を行わない運動パターン結合ステップと、
    前記運動パターン結合ステップによって結合された複数の運動パターンに基づいて、前記キャラクタの動的な画像を生成する画像生成ステップと、
    を実行させることを特徴とするプログラム。
JP2007299590A 2007-11-19 2007-11-19 画像生成装置及びそのプログラム Expired - Fee Related JP4903115B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007299590A JP4903115B2 (ja) 2007-11-19 2007-11-19 画像生成装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007299590A JP4903115B2 (ja) 2007-11-19 2007-11-19 画像生成装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2009128922A JP2009128922A (ja) 2009-06-11
JP4903115B2 true JP4903115B2 (ja) 2012-03-28

Family

ID=40819830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007299590A Expired - Fee Related JP4903115B2 (ja) 2007-11-19 2007-11-19 画像生成装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP4903115B2 (ja)

Also Published As

Publication number Publication date
JP2009128922A (ja) 2009-06-11

Similar Documents

Publication Publication Date Title
JP5338782B2 (ja) 運動支援装置、運動支援方法およびプログラム
US20090278917A1 (en) Providing A Collaborative Immersive Environment Using A Spherical Camera and Motion Capture
JP6574401B2 (ja) モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム
JP6647584B1 (ja) 情報処理装置及びプログラム
KR20100084597A (ko) 모션 캡쳐, 헤드 마운트 디스플레이 및 cave를 사용하는 협업형 실감 환경
KR101757765B1 (ko) 모션 캡처 데이터 기반 3차원 애니메이션 제작 시스템 및 그 제어 방법
KR100682849B1 (ko) 디지털 캐릭터 생성 장치 및 그 방법
JPWO2008015978A1 (ja) 映像表示装置および映像表示方法
Tharatipyakul et al. Pose estimation for facilitating movement learning from online videos
KR102009400B1 (ko) 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버
JP5408205B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
JP2006501501A (ja) 仮想解剖学的環境を生成するためのデバイスおよび方法
JP2020069317A (ja) ゲームプログラム、記録媒体、ゲーム処理方法
JP2739444B2 (ja) 3次元モデルによる動き生成装置
JP4903115B2 (ja) 画像生成装置及びそのプログラム
JP2002032788A (ja) 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
KR102495213B1 (ko) 증강 현실 기반의 스크린 스포츠 체험 장치 및 방법
JP2009128923A (ja) 画像生成装置及びそのプログラム
JP2011194076A (ja) 運動支援装置、運動支援方法およびプログラム
Taweel et al. SURVIVRS: Surround Video-Based Virtual Reality for Surgery Guidance
US20240346736A1 (en) Information processing device, information processing method, and program
JP7412826B1 (ja) 映像合成装置、映像合成方法、及びプログラム
KR102557953B1 (ko) 안무 분석 시스템
JP4270088B2 (ja) 仮想人体モデルを用いた製品の評価システム
JP6804781B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees