JP2015126826A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2015126826A JP2015126826A JP2013273538A JP2013273538A JP2015126826A JP 2015126826 A JP2015126826 A JP 2015126826A JP 2013273538 A JP2013273538 A JP 2013273538A JP 2013273538 A JP2013273538 A JP 2013273538A JP 2015126826 A JP2015126826 A JP 2015126826A
- Authority
- JP
- Japan
- Prior art keywords
- display
- virtual
- virtual camera
- cpu
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想カメラの位置が連続して変更される場合に、運動動作ごとに適した仮想カメラの位置の範囲で、運動する仮想物の鏡像を表示可能とする。
【解決手段】情報処理装置は、動作情報と、仮想カメラにより撮影される仮想物の鏡像の表示範囲を示す範囲情報とを複数記憶し、所定の動作情報に基づいて、三次元仮想空間において仮想物が動作する映像であって、仮想カメラから撮影された映像を示す映像情報を表示手段に表示させ、仮想カメラの位置の連続的な変更指示を受け付け、変更指示によって変更された仮想カメラの位置が、所定の動作情報に対応する範囲情報が示す表示範囲に含まれるかを判定し、仮想カメラの位置が表示範囲に含まれると判定された場合、仮想物の鏡像を示す映像情報を表示手段に表示させる。
【選択図】図5
【解決手段】情報処理装置は、動作情報と、仮想カメラにより撮影される仮想物の鏡像の表示範囲を示す範囲情報とを複数記憶し、所定の動作情報に基づいて、三次元仮想空間において仮想物が動作する映像であって、仮想カメラから撮影された映像を示す映像情報を表示手段に表示させ、仮想カメラの位置の連続的な変更指示を受け付け、変更指示によって変更された仮想カメラの位置が、所定の動作情報に対応する範囲情報が示す表示範囲に含まれるかを判定し、仮想カメラの位置が表示範囲に含まれると判定された場合、仮想物の鏡像を示す映像情報を表示手段に表示させる。
【選択図】図5
Description
本発明は、三次元仮想空間に配置される仮想物が運動動作する映像を、仮想物の左右を反転させて表示する技術分野に関する。
例えば、特許文献1には、指導者が運動を行う運動画像を実像として見るか又は鏡像で見るかを、利用者から入力された運動向きの選択情報をもとに判定し、鏡像で見る場合、指導者の運動画像の鏡像と利用者の運動映像とを比較して、指導者の動きと利用者の動きの差を検出する技術が開示されている。また、特許文献2には、三次元仮想空間において予め定められた複数の位置の中から、三次元仮想空間内のフィギュアを撮影する仮想カメラの位置を切り替えて、フィギュアが運動動作する映像を表示する技術が開示されている。
従来の技術では、利用者又はインストラクターが望む位置に仮想カメラの位置を切り替えたとき、仮想物に対する仮想カメラの位置に応じて、動作する仮想物の鏡像と実像とを切り替えて表示させることができない。その一方で、仮想カメラの位置に応じて仮想物の鏡像と実像とを切り替えて表示させる場合、仮想カメラの位置の範囲として、動作が分かりやすい鏡像及び実像をそれぞれ表示することができる範囲が、運動動作ごとに異なる。
本発明は、以上の点に鑑みてなされたものであり、仮想カメラの位置が連続して変更される場合に、運動動作ごとに適した仮想カメラの位置の範囲で、運動する仮想物の鏡像を表示可能とする情報処理装置及びプログラムを提供することを課題とする。
上記課題を解決するために、請求項1に記載の発明は、三次元仮想空間に配置される仮想物が動作を行う映像を示す映像情報を、前記三次元仮想空間における前記仮想物の身体の座標に基づいて生成するための動作情報と、前記三次元仮想空間に配置される仮想カメラにより撮影される前記仮想物の鏡像の表示範囲を示す範囲情報とを複数記憶する記憶手段と、前記記憶手段に記憶された複数の前記動作情報のうち所定の動作情報に基づいて、前記三次元仮想空間において前記仮想物が動作する映像であって、前記仮想カメラから撮影された映像を示す前記映像情報を表示手段に表示させる第1制御手段と、前記三次元仮想空間における前記仮想カメラの位置の連続的な変更指示を受け付ける受付手段と、前記受付手段により前記変更指示が受け付けられた場合、前記変更指示によって変更された前記仮想カメラの位置が、前記所定の動作情報に対応する前記範囲情報が示す表示範囲に含まれるかを判定する判定手段と、前記判定手段により前記仮想カメラの位置が前記表示範囲に含まれると判定された場合、前記仮想物の鏡像を示す前記映像情報を前記表示手段に表示させる第2制御手段と、を備えることを特徴とする。
請求項2に記載の発明は、前記記憶手段は、前記仮想物から前記仮想カメラへの方向と前記仮想物からの所定方向とのなす角度の範囲を示す前記範囲情報を記憶し、前記判定手段は、前記変更指示によって前記位置が変更された前記仮想カメラの前記仮想物からの方向と前記仮想物からの前記所定方向とのなす角度が、前記所定の動作情報に対応する前記範囲情報が示す範囲に含まれるかを判定し、前記第2制御手段は、前記判定手段により前記角度が前記範囲に含まれると判定された場合、前記仮想物の鏡像を示す前記映像情報を表示させることを特徴とする。
請求項3に記載の発明は、前記受付手段は、前記仮想カメラの位置を、所定の移動方向へ変更する前記変更指示を、連続して受け付けることを特徴とする。
請求項4に記載の発明は、前記第2制御手段は、前記判定手段により前記仮想カメラの位置が前記表示範囲に含まれると判定されなかった場合、前記仮想物の実像を示す前記映像情報を表示させることを特徴とする。
請求項5に記載の発明は、前記第2制御手段により前記表示手段に前記仮想物の鏡像又は実像を示す前記映像情報が表示されたときの前記仮想カメラの前記三次元仮想空間における位置を示す位置情報を、前記仮想カメラの位置の切替操作により切り替え可能な位置を示す位置情報として前記記憶手段に記憶させる第3制御手段を更に備えることを特徴とする。
請求項6に記載の発明は、前記第3制御手段は、前記情報処理装置と通信可能なリモコンの切替操作により前記リモコンから前記情報処理装置へ送信される切替指示に基づいて切り替えられる前記仮想カメラの位置として、前記仮想物の鏡像又は実像を示す前記映像情報が表示されたときの前記仮想カメラの位置を示す位置情報を前記記憶手段に記憶させることを特徴とする。
請求項7に記載の発明は、前記第2制御手段は、前記仮想物の鏡像を示す前記映像情報の表示と、前記仮想物の実像を示す前記映像情報の表示とを切り替えるとき、所定の演出効果が付与された前記映像情報を表示させることを特徴とする。
請求項8に記載の発明は、三次元仮想空間に配置される仮想物が動作を行う映像を示す映像情報を、前記三次元仮想空間における前記仮想物の身体の座標に基づいて生成するための動作情報と、前記三次元仮想空間に配置される仮想カメラにより撮影される前記仮想物の鏡像の表示範囲を示す範囲情報とを複数記憶する記憶手段に記憶された複数の前記動作情報のうち所定の動作情報に基づいて、前記三次元仮想空間において前記仮想物が動作する映像であって、前記仮想カメラから撮影された映像を示す前記映像情報を表示手段に表示させる第1制御ステップと、前記三次元仮想空間における前記仮想カメラの位置の連続的な変更指示を受け付ける受付ステップと、前記受付ステップにより前記変更指示が受け付けられた場合、前記変更指示によって変更された前記仮想カメラの位置が、前記所定の動作情報に対応する前記範囲情報が示す表示範囲に含まれるかを判定する判定ステップと、前記判定ステップにより前記仮想カメラの位置が前記表示範囲に含まれると判定された場合、前記仮想物の鏡像を示す前記映像情報を前記表示手段に表示させる第2制御ステップと、をコンピュータに実行させることを特徴とする。
請求項1又は8に記載の発明によれば、運動動作に対応する範囲で、動作を行う仮想物の左右を反転した鏡像が表示されるので、運動動作ごとに適した仮想カメラの位置の範囲で仮想物の鏡像を表示することができる。
請求項2に記載の発明によれば、運動動作ごとに適した仮想カメラの撮影角度の範囲で仮想物の鏡像を表示することができる。
請求項4に記載の発明によれば、仮想カメラの位置が、運動動作に対応する範囲外である場合、動作を行う仮想物の左右を反転しない実像を表示させることができる。
請求項5に記載の発明によれば、仮想カメラの位置の連続的な変更による仮想カメラの移動先の位置を、切替操作による仮想カメラの位置の切り替え先にすることが可能な位置として登録しておくことができる。
請求項7に記載の発明によれば、仮想物が運動する映像が鏡像から実像へ切り替わるとき、又は、仮想物が運動する映像が実像から鏡像へ切り替わるとき、演出効果が付与される。そのため、映像が切り替わることにより映像の繋がりが不自然になることを抑制することができる。
以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、運動を支援するための運動コンテンツを生成する運動コンテンツ生成システムに本発明を適用した場合の実施形態である。運動コンテンツは、運動を支援するための映像及び音声を含む。
[1.運動コンテンツ生成システム1の構成]
始めに、図1を参照して、本実施形態の運動コンテンツ生成システム1の構成について説明する。図1は、本実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。図1に示すように、運動コンテンツ生成システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
始めに、図1を参照して、本実施形態の運動コンテンツ生成システム1の構成について説明する。図1は、本実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。図1に示すように、運動コンテンツ生成システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
出力端末5は、例えば、施設4に設置される端末装置である。出力端末5は、本発明の情報処理装置の一例である。出力端末5は、施設4の利用者41により利用される。出力端末5は、例えばパーソナルコンピュータであってもよい。施設4は、例えば、スポーツ施設であってもよい。利用者41は、スポーツ施設において、運動レッスンを受ける。運動レッスンは、複数の運動動作と楽曲により構成されるレッスンである。運動動作は、例えば、身体を鍛えるための動作である。運動動作として、例えば、体操の動作と踊りの動作とがある。体操は、例えば、健康の増進、体力の増強、筋力の強化等のために行われる運動である。体操の種類として、例えば、有酸素運動、無酸素運動、ストレッチ等がある。踊りの動作は、楽曲に合わせて踊るために楽曲に対して振り付けられた動作である。
出力端末5は、モニタ57と接続可能である。モニタ57は、複数のスピーカ64とディスプレイ67とを備える表示装置であってもよい。この場合、出力端末5は、ディスプレイ67と接続可能である。ディスプレイ67は、本発明の表示手段の一例である。また、出力端末5は、スピーカ64と接続可能である。出力端末5がモニタ57へ音声信号を出力することにより、スピーカ64により楽曲等が出力される。出力端末5がモニタ57へ映像信号を出力することにより、ディスプレイ67に運動映像等が表示される。運動映像は、本発明の映像情報の一例である。運動映像は、動作を行うフィギュア83を映し出した動画である。フィギュア83は、例えば、人、動物、仮想上の生き物、ロボット等のかたちをした仮想物である。フィギュア83は、三次元仮想空間に配置される。出力端末5は、スピーカ64から出力される楽曲と、ディスプレイ67に表示されるフィギュア83の動きとが同期するように、信号を出力する。楽曲と運動映像とを出力することは、運動コンテンツを出力することの一例である。利用者41は、楽曲を聴きながら、ディスプレイ67に表示されるフィギュア83を見て、運動を行うことができる。操作者42は、リモコン66等を用いて出力端末5を操作することができる。出力端末5とリモコン66とは通信可能である。利用者41と操作者42とは同一人物であってもよい。施設4がスポーツ施設である場合、操作者42は、例えば、インストラクターであってもよい。
[2.フィギュア83の鏡像表示、実像表示の切り替え]
次に、図2(A)を参照して、運動映像を生成するために用いられる三次元仮想空間90を説明する。運動コンテンツ生成システム1においては、3DCG(3 Dimensional Computer Graphics)により、出力端末5が、三次元仮想空間90に配置されたフィギュア83が運動動作を行う運動映像を生成する。図2(A)は、三次元仮想空間90の様子の一例を示す図である。図2(A)に示すように、三次元仮想空間90には、フィギュア83が配置される。また、三次元仮想空間90には、仮想カメラ91が配置される。仮想カメラ91は、三次元仮想空間90内の映像を撮影する。仮想カメラ91は、三次元仮想空間90内の物体を投影面に写すための視点及び視線の方向を表す。例えば、仮想カメラ91の位置は視点を示し、仮想カメラ91の撮影方向は視線の方向を示す。また、視線は、例えば、フィギュア83の中心を通る。このフィギュア83の中心を、注視点という。注視点は、例えば、三次元仮想空間90における座標系の原点であってもよい。投影面に映った映像が、運動映像になる。出力端末5は、三次元仮想空間90におけるフィギュア83の複数の運動動作が仮想カメラ91で撮影される運動映像を、ディスプレイ67に表示させる。
次に、図2(A)を参照して、運動映像を生成するために用いられる三次元仮想空間90を説明する。運動コンテンツ生成システム1においては、3DCG(3 Dimensional Computer Graphics)により、出力端末5が、三次元仮想空間90に配置されたフィギュア83が運動動作を行う運動映像を生成する。図2(A)は、三次元仮想空間90の様子の一例を示す図である。図2(A)に示すように、三次元仮想空間90には、フィギュア83が配置される。また、三次元仮想空間90には、仮想カメラ91が配置される。仮想カメラ91は、三次元仮想空間90内の映像を撮影する。仮想カメラ91は、三次元仮想空間90内の物体を投影面に写すための視点及び視線の方向を表す。例えば、仮想カメラ91の位置は視点を示し、仮想カメラ91の撮影方向は視線の方向を示す。また、視線は、例えば、フィギュア83の中心を通る。このフィギュア83の中心を、注視点という。注視点は、例えば、三次元仮想空間90における座標系の原点であってもよい。投影面に映った映像が、運動映像になる。出力端末5は、三次元仮想空間90におけるフィギュア83の複数の運動動作が仮想カメラ91で撮影される運動映像を、ディスプレイ67に表示させる。
仮想カメラ91の位置は操作者42の操作に基づいて変更可能である。仮想カメラ91の位置を変更する手段として、例えば、リモコン66とマウス62とがある。リモコン66は、例えば複数のボタンを備える。操作者42は、リモコン66のボタンを操作することにより、三次元仮想空間90内において予め登録された複数の位置の中から仮想カメラ91の位置を切り替えることができる。例えば、図2(A)に示すように、仮想カメラ91の位置を、視点L1〜L17のうち何れかに変更可能である。視点L1〜L17は、予め設定されている。これらの視点を、システム設定視点という。
操作者42は、マウス62を動かすことにより、仮想カメラ91の位置を連続的に変更することができる。すなわち、仮想カメラ91の位置を、三次元仮想空間90内においてなめらかに動かすことができる。操作者42がマウス62を動かすと、マウス62は、例えば所定時間ごとに操作信号を出力端末5へ出力する。操作信号は、例えばマウス62の移動方向を示す方向値と、マウス62の移動距離を示すカウント値とを含む。出力端末5は、マウス62からの操作信号を、仮想カメラ91の位置の変更指示として連続して受け付ける。すなわち、出力端末5は、仮想カメラ91の位置を所定の移動方向へ変更する変更する変更指示を連続して受け付ける。出力端末5は、操作信号を受信するごとに、操作信号に含まれる方向値及びカウント値に応じて、仮想カメラ91の三次元仮想空間90における位置の移動方向及び移動距離を計算する。そして、出力端末5は、計算した移動方向及び移動距離に基づいて、仮想カメラ91の位置を変更する。具体的に、出力端末5は、仮想カメラ91の位置を、方向値に応じた移動方向へ、カウント値に応じた移動距離変更する。これにより、仮想カメラ91の位置を視点L1〜L17とは異なる位置に変更することも可能である。
三次元仮想空間90における仮想カメラ91の位置によって、仮想カメラ91からの視線方向に対してフィギュア83の正面が向く方向が変わる。この方向は、注視点から視点への方向と、注視点からフィギュア83の正面方向とのなす角度に対応する。この角度を、便宜上、撮影角度という。例えば、仮想カメラ91が、フィギュア83の背面を撮影したり、フィギュア83の正面を撮影したりする場合がある。フィギュア83が同じ動作をしていても、背面を撮影した映像と正面を撮影した映像とでは、ディスプレイ67に表示されるフィギュア83の動作が左右反対となる。運動レッスンが行われるとき、利用者41は、ディスプレイ67に表示されるフィギュア83が行う運動動作を見ながら、フィギュア83と同じ運動動作を行おうとする。そこで、出力端末5は、フィギュア83の位置に応じて、フィギュア83の鏡像表示と実像表示とを切り替える。鏡像表示は、フィギュア83の左右を反転させてフィギュア83の運動映像を表示させることである。実像表示は、フィギュア83の左右を反転させずにフィギュア83の運動映像を表示させることである。
基本的に、フィギュア83の正面が仮想カメラ91を向く位置に仮想カメラ91が位置するとき、出力端末5は鏡像表示させる。一方、フィギュア83の背面が仮想カメラ91を向く位置に仮想カメラ91が位置するとき、出力端末5は実像表示を行わせる。しかしながら、仮想カメラ91の位置の範囲として、鏡像表示の方がフィギュア83の運動動作が分かりやすい範囲と、実像表示の方がフィギュア83の運動動作が分かりやすい範囲とが、運動動作ごとに異なる場合がある。そこで、運動動作ごとに、鏡像表示する仮想カメラ91の位置の範囲が予め設定されている。
例えば、鏡像表示する最大の撮影角度で、鏡像表示する仮想カメラ91が位置の範囲が設定されてもよい。この角度を鏡像表示角度という。鏡像表示角度は、本発明の範囲情報の一例である。図2(B)は、三次元仮想空間90における座標系における座標軸の一例を示す図である。図2(B)において、Oは例えば注視点である。三次元仮想空間90におけるワールド座標系において、フィギュア83に対して左右方向がX軸の方向である。また、フィギュア83に対して上下方向がY軸の方向である。また、フィギュア83に対して前後方向がZ軸の方向である。フィギュア83の正面は、例えばZ軸においてマイナスの方向である。図2(C)及び図2(D)は、フィギュア83をZ軸上から見たXZ平面図である。注視点から視点へのベクトルBがXZ平面に投影される。そして、投影されたベクトルBと、注視点からの正面方向のベクトルAとのなす角度θが撮影角度である。鏡像表示角度をθmaxとすると、図2(C)に示すように、θ≦θmaxである場合、出力端末5は、鏡像表示させる。図2(D)に示すように、θ>θmaxである場合、出力端末5は、実像表示させる。また、θ<θmaxである場合、出力端末5は、鏡像表示させ、θ≧θmaxである場合、出力端末5は、実像表示させても良い。
運動動作ごとの鏡像表示角度を管理するため、出力端末5のHDD7には、ジャンルテーブル、モーション管理テーブルが記憶される。図3(A)は、ジャンルテーブルの構成例を示す図である。ジャンルテーブルは、運動動作のジャンルを定義するテーブルである。図3(A)に示すように、ジャンルテーブルには、ジャンルID及びジャンル名が、ジャンルごとに対応付けて格納される。ジャンルIDは、ジャンルを識別可能な識別情報である。図3(B)は、運動動作管理テーブルの構成例を示す図である。運動動作管理テーブルは、運動動作を定義するためのテーブルである。図3(B)に示すように、運動動作管理テーブルには、ジャンルID、モーションID、運動動作名及び鏡像表示角度等が、運動動作ごとに対応付けて格納される。ジャンルIDは、運動動作の運動のジャンルを示す。モーションIDは、運動動作を識別可能な識別情報である。また、HDD7には、配信サーバ2からダウンロードされたモーションデータが、モーションIDに対応付けて記憶される。モーションデータは、三次元仮想空間90におけるフィギュア83の運動動作を定義するデータであり、運動映像を表示するためのデータである。モーションデータは、本発明の動作情報の一例である。モーションIDにより、モーションデータと鏡像表示角度とが対応付けられる。
ユーザによるマウス62の操作による仮想カメラ91の位置の連続的な変更によって、出力端末5が鏡像表示又は実像表示をさせた場合、出力端末5は、そのときの仮想カメラ91の位置を登録してもよい。例えば、HDD7には、ユーザ登録視点テーブルが記憶される。ユーザ登録視点テーブルには、ユーザの操作によって登録された視点の座標が格納される。ユーザが所定のマウスボタンを押すこと等により登録操作を行ったとき、出力端末5は、仮想カメラ91の三次元仮想空間90における現在の座標をユーザ登録視点テーブルに格納する。登録された視点を、ユーザ登録視点という。リモコン66の視点切替操作により、出力端末5は、仮想カメラ91の位置をユーザ登録視点に切り替えることができる。
また、出力端末5は、仮想カメラ91の位置の連続的な変更に応じて、鏡像表示から実像表示へ切り替えるときと、実像表示から鏡像表示へ切り替えるときに、運動映像に対して演出効果を付与してもよい。これにより、鏡像表示と実像表示とが突然切り替わることより運動映像の繋がりが不自然になることを演出効果により抑制することができる。演出効果として、例えば、暗転、ぼかし等がある。暗転は、運動映像を黒色等の暗い色で塗りつぶしてフィギュア83が見えないようにする演出効果である。例えば、鏡像表示と実像表示とが切り替わる瞬間に運動映像が真っ暗となり、その後次第に明るくなって、フィギュア83が見えるようになる。ぼかしは、フィギュア83の輪郭をあいまいにする演出効果である。例えば、鏡像表示と実像表示とが切り替わる瞬間に、所定の強度のぼかしが運動映像に付与される。その後、運動映像に付与されるぼかしの強度が次第に小さくなって、フィギュア83の輪郭がはっきり見えるようになる。演出効果として、例えば、鏡像表示と実像表示とが切り替わる瞬間に、鏡像表示と実像表示とのそれぞれが一定の割合ブレンドされた運動映像が表示されても良い。
[3.各装置の構成]
次に、図1を参照して、運動コンテンツ生成システムに含まれる各装置の構成について説明する。
次に、図1を参照して、運動コンテンツ生成システムに含まれる各装置の構成について説明する。
[3−1.配信サーバ2の構成]
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD(ハードディスクドライブ)37を備える。CPU21は、バス24を介して、ROM22、RAM23、バス24及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ27に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD(ハードディスクドライブ)37を備える。CPU21は、バス24を介して、ROM22、RAM23、バス24及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ27に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
データベース3には、モーションデータ、楽曲データ等のデータが登録されている。モーションデータは、三次元仮想空間90におけるフィギュア83の運動動作を定義するデータである。また、モーションデータは、ディスプレイ67に表示されるフィギュア83に運動動作をさせるためのデータである。モーションデータは、運動動作の進行に応じたフィギュア83の身体の各部の座標を含む。具体的には、モーションデータには、時系列に沿って、運動動作の進行に応じたフィギュア83の身体部位の座標が含まれる。例えば、運動映像を構成する複数のフレームのうちキーフレームごとに、フィギュア83の身体部位の座標が定義されている。時系列に沿って、フィギュア83の身体部位が、モーションデータに従って表示されることで、所定の運動動作を実行するフィギュア83の映像が、ディスプレイ67に表示される。モーションデータは、モーションIDと対応付けて登録される。
楽曲データは、スピーカ64により楽曲を出力するための演奏データである。楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)形式のデータであってもよい。楽曲データは、楽曲ID、楽曲名、アーティスト名、オリジナルのテンポ、楽曲の演奏パートの構成等の情報を含む。楽曲IDは、楽曲の識別情報である。
[3−2.出力端末5の構成]
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65、及びHDD7を備える。CPU51は、バス54を介して、ROM52、RAM53及びI/Oインタフェイス55に接続されている。CPU51は、時計機能及びタイマー機能を有する。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、及び信号受信部65が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される指示信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65、及びHDD7を備える。CPU51は、バス54を介して、ROM52、RAM53及びI/Oインタフェイス55に接続されている。CPU51は、時計機能及びタイマー機能を有する。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、及び信号受信部65が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される指示信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。
HDD7は、本発明の記憶手段の一例である。HDD7には、配信サーバ2からダウンロードされたモーションデータ、楽曲データ等が記憶される。また、HDD7には、ジャンルテーブル、モーション管理テーブル、システム設定視点テーブル、ユーザ登録視点テーブル、演出効果情報が記憶される。システム設定視点テーブルには、システム設定視点の三次元仮想空間90における座標が格納される。演出効果情報は、鏡像表示と実像表示との切り替え時の演出効果の内容を定義する情報である。例えば、演出効果情報は、演出効果の種類、及び演出開始から経過した時間ごとの演出態様を示す情報を含む。例えば、暗転の場合、演出態様を示す情報は、運動映像の明度であってもよい。例えば、明度が0であるとき、運動映像が黒色で塗りつぶされ、フィギュア83が見えない。明度が高くなるに従って、フィギュア83が徐々に見え、明度が100であるとき、フィギュア83が完全に見える。また例えば、ぼかしの場合、演出態様を示す情報は、ぼかしの強度であってもよい。また、HDD7には、レッスン情報が記憶される。レッスン情報は、運動レッスンの構成を定義する情報である。レッスン情報は、運動レッスンごとにレッスンIDと対応付けて記憶される。レッスンIDは、運動レッスンを識別可能な識別情報である。レッスン情報には、モーションID及び実行順番号等を格納するレコードが、運動レッスンを構成する運動動作ごとに登録されている。実行順番号は、運動レッスンを構成する複数の運動動作の中で、モーションIDが示す運動動作が実行される順番を示す。
HDD7には、更に、OS、運動支援プログラム、3Dエンジン、ミュージックシーケンサ等の各種プログラム等が記憶されている。運動支援プログラムは、出力端末5を動作させるためのプログラムである。運動支援プログラムは、コンピュータとしてのCPU51に、受付ステップ、ダウンロードステップ、設定ステップ、判定ステップ、制御ステップを少なくとも実行させる。3Dエンジンは、モーションデータに基づいて、三次元仮想空間で運動動作するフィギュア83を二次元平面に投影した画像を生成するためのプログラムである。画像を生成する処理は、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含む。CPU51は、3Dエンジンを実行して、静止画像を順次生成する。生成された静止画像をCPU51が表示制御部56へ順次出力することで、ディスプレイ67には、運動映像が表示される。
ミュージックシーケンサは、楽曲データを再生するためのプログラムである。CPU51は、ミュージックシーケンサを実行することにより、楽曲データに対応する音声信号を生成する。また、CPU51は、ミュージックシーケンサを実行することにより、各種のイベントを発生させる。イベントとして、例えば、テンポに応じて所定時間間隔で発生するイベントがある。このイベントは、MIDIクロックや同期イベントと呼ばれる。また、イベントとして、例えば、演奏パート開始イベントがある。
各種プログラムは、例えば、配信サーバ2等のサーバからネットワーク10を介してダウンロードされるようにしてもよい。また、各種プログラムは、記録媒体59に記録されてディスクドライブ58を介して読み込まれるようにしてもよい。なお、3Dエンジンやミュージックシーケンサは、プログラムではなく、専用のハードウェアであってもよい。そして、出力端末5は、ハードウェアとしての3Dエンジンやミュージックシーケンサを備えてもよい。
CPU51は、設定されたテンポに従って、楽曲データに対応する音声信号を音声出力部63へ出力させるとともに、生成した画像に対応する映像信号を表示制御部56から出力させる。CPU51は、同期イベントに基づいて、楽曲の音声信号の出力タイミングと運動映像の映像信号の出力タイミングとを同期させる。これにより、スピーカ64から出力される楽曲に同期して運動動作を行うフィギュア83がディスプレイ67に表示される。
[4.運動コンテンツ生成システム1の動作]
次に、図4及び図5を参照して、運動コンテンツ生成システム1の動作を説明する。図4及び図5は、出力端末5のCPU51の運動コンテンツ再生処理の処理例を示すフローチャートである。例えば、操作者42が、リモコン66等を用いて運動レッスンを選択し、運動コンテンツの再生の開始を指示する操作を行う。すると、CPU51は、運動コンテンツ再生処理を開始する。なお、運動コンテンツ再生処理においてスピーカ64から楽曲を出力させるための処理の説明は省略する。
次に、図4及び図5を参照して、運動コンテンツ生成システム1の動作を説明する。図4及び図5は、出力端末5のCPU51の運動コンテンツ再生処理の処理例を示すフローチャートである。例えば、操作者42が、リモコン66等を用いて運動レッスンを選択し、運動コンテンツの再生の開始を指示する操作を行う。すると、CPU51は、運動コンテンツ再生処理を開始する。なお、運動コンテンツ再生処理においてスピーカ64から楽曲を出力させるための処理の説明は省略する。
運動コンテンツ再生処理を開始すると、CPU51は、選択された運動レッスンのレッスンIDを特定し、レッスンIDに対応するレッスン情報をHDD7から取得する。そして、CPU51は、図4に示すように、実行順番号iを1に設定する。また、CPU51は、鏡像表示切替演出中フラグをOFFに設定する(ステップS1)。鏡像表示切替演出中フラグは、鏡像表示と実像表示との切り替え時の演出が行われている最中であるか否かを示す。次いで、CPU51は、i番目に実行される運動動作に関する情報を取得する(ステップS2)。具体的に、CPU51は、レッスン情報から実行順番号iに対応するモーションIDを取得する。次いで、CPU51は、運動動作管理テーブルから、モーションIDに対応する鏡像表示角度を取得する。また、CPU51は、i番目の運動動作の運動映像の表示開始時刻として、時計機能から現在時刻を取得する。
次いで、CPU51は、ユーザ操作が行われたか否かを判定する(ステップS3)。具体的にCPU51は、マウス62から操作信号を受信したとき、又は信号受信部65を介してリモコン66からの指示信号を受信したとき、ユーザ操作が行われたと判定する(ステップS3:YES)。この場合、CPU51は、ステップS4に進む。ステップS4において、CPU51は、マウス62のアナログ操作による視点変更を行うか否かを判定する。このとき、CPU51は、マウス62から操作信号を受信した場合には、マウス62による視点変更を行うと判定する(ステップS4:YES)。この場合、CPU51は、ステップS5に進む。ステップS5において、CPU51は、三次元仮想空間90における現在の視点を変更する。具体的に、CPU51は、受信した操作信号から方向値及びカウンタ値を取得する。次いで、CPU51は、取得した方向値及びカウンタ値に応じて、三次元仮想空間90における視点の移動方向及び移動距離を計算する。次いで、CPU51は、計算した移動方向及び移動距離に基づいて、三次元仮想空間90におけるX〜Z座標のそれぞれの変化量を計算する。次いで、CPU51は、計算した現在の視点のX〜Z座標のそれぞれに、計算した変化量を加算して、視点の位置を変更する。次いで、CPU51は、ステップS10に進む。
一方、CPU51は、マウス62による視点変更を行うと判定しなかった場合には(ステップS4:NO)、ステップS6に進む。ステップS6において、CPU51は、リモコン66の操作による視点切り替えを行うか否かを判定する。このとき、CPU51は、リモコン66から視点切替指示信号を受信した場合には、リモコン66による視点切り替えを行うと判定する(ステップS6:YES)。この場合、CPU51は、ステップS7に進む。ステップS7において、CPU51は、三次元仮想空間90における現在の視点を、登録されている複数の視点の何れかに変更する。具体的に、CPU51は、リモコン66から受信された視点切替指示信号から、操作されたボタンを示すボタン情報を取得する。次いで、CPU51は、操作されたボタンに応じて、三次元仮想空間90における現在の視点の座標からの視点の移動方向の角度の範囲を特定する。次いで、CPU51は、HDD7から、予め記憶されているシステム設定視点の座標を取得する。また、CPU51は、HDD7からユーザ登録視点の座標を取得する。次いで、CPU51は、HDD7から取得された視点の座標のうち、例えば現在の視点の座標から特定された角度の範囲内にある座標を抽出する。次いで、CPU51は、抽出された座標のうち、例えば現在の視点の座標からの距離が最も短い座標を特定する。そして、CPU51は、特定した座標を、視点の切り替え先の座標として決定する。次いで、CPU51は、ステップS10に進む。
一方、CPU51は、リモコン66による視点変更を行うと判定しなかった場合には(ステップS6:NO)、ステップS8に進む。ステップS8において、CPU51は、視点を登録するか否かを判定する。例えば、CPU51は、マウス62の所定のボタンが押されたことを検出した場合、視点を登録すると判定する(ステップS8:YES)。この場合、CPU51は、ステップS9に進む。ステップS9において、CPU51は、現在の視点の座標を、ユーザ登録視点テーブルに登録する。次いで、CPU51は、ステップS10に進む。一方、CPU51は、視点を登録すると判定しなかった場合には(ステップS8:NO)、ステップS10に進む。
ステップS10において、CPU51は、i番目の運動動作の運動映像の表示開始時刻から経過した時間と、運動映像の1フレームあたりの時間間隔に基づいて、経過フレーム数を特定する。経過フレーム数は、運動映像の表示開始時刻から現時点までに表示されたフレームの数である。次いで、CPU51は、前回のフィギュア83の描画から1フレーム以上経過した否かを判定する(ステップS11)。このとき、CPU51は、1フレーム以上経過していないと判定した場合には(ステップS11:NO)、ステップS3に進む。一方、CPU51は、1フレーム以上経過したと判定した場合には(ステップS11:YES)、ステップS12に進む。ステップS12において、CPU51は、経過フレーム数に対応する現在のフレームにおけるフィギュア83の各身体部位の三次元仮想空間90における座標を決定する。例えば、CPU51は、取得したモーションIDに対応付けてHDD7に記憶されているモーションデータから、現在のフレームの前後にあるキーフレームに対応する各身体部位の座標を取得する。そして、CPU51は、取得した座標と、表示開始時刻から経過した時間とに基づいて、現在のフレームにおける各身体部位の座標を補間する。
次いで、CPU51は、鏡像表示切替演出中フラグがONであるか否かを判定する(ステップS13)。このとき、CPU51は、鏡像表示切替演出中フラグがONであると判定した場合には(ステップS13:YES)、ステップS14に進む。ステップS14において、CPU51は、HDD7に記憶されている演出効果情報に基づいて、演出の開始時刻からの経過時間に対応する演出態様を決定する。例えば、暗転の場合、CPU51は、運動映像の明度を決定する。次いで、CPU51は、演出効果情報に基づいて、演出の開始時刻からの経過時間が演出の終了時間に達したか否かを判定する(ステップS15)。このとき、CPU51は、経過時間が終了時間に達していないと判定した場合には(ステップS15:NO)、ステップS28に進む。一方、CPU51は、経過時間が終了時間に達したと判定した場合には(ステップS15:YES)、ステップS16に進む。ステップS16において、CPU51は、鏡像表示切替演出中フラグをOFFに設定する。次いで、CPU51は、ステップS28に進む。
ステップS13において、CPU51は、鏡像表示切替演出中フラグがONではないと判定した場合には(ステップS13:NO)、ステップS21に進む。ステップS21において、CPU51は、図5に示すように、注視点の座標から現在の視点の座標までのベクトルBを計算する。次いで、CPU51は、注視点から注視点正面へのベクトルAと、三次元仮想空間90におけるXZ平面に投影されたベクトルBとのなす角度θを、内積によって計算する(ステップS22)。次いで、CPU51は、θが鏡像表示角度以下であるか否かを判定する(ステップS23)。このとき、CPU51は、θが鏡像表示角度以下であると判定した場合には(ステップS23:YES)、ステップS24に進む。ステップS24において、CPU51は、鏡像表示フラグをONに設定する。鏡像表示フラグは、鏡像表示するか否かを示す。一方、CPU51は、θが鏡像表示角度以下ではないと判定した場合には(ステップS23:NO)、ステップS25に進む。ステップS25において、CPU51は、鏡像表示フラグをOFFに設定する。CPU51は、ステップS24又は25を終えると、ステップS26に進む。ステップS26において、CPU51は、鏡像表示フラグのONとOFFが切り替わったか否かを判定する。具体的に、CPU51は、ステップS24又はS25における鏡像表示フラグの設定により、鏡像表示フラグの内容がONからOFF又はOFFからONへ変化したか否かを判定する。このとき、CPU51は、鏡像表示フラグのONとOFFが切り替わっていないと判定した場合には(ステップS26:NO)、ステップS28に進む。一方、CPU51は、鏡像表示フラグのONとOFFが切り替わったと判定した場合には(ステップS26:YES)、ステップS27に進む。ステップS27において、CPU51は、鏡像表示切替演出中フラグをONに設定する。次いで、CPU51は、ステップS28に進む。
ステップS28において、CPU51は、運動映像の背景を、例えばRAM53の運動映像用の描画領域に描画する。描画領域には、例えば運動映像の各画素の赤、青、緑の輝度値が格納される。次いで、CPU51は、鏡像表示フラグがONであるか否かを判定する(ステップS29)。このとき、CPU51は、鏡像表示フラグがONであると判定した場合には(ステップS29:YES)、ステップS30に進む。ステップS30において、CPU51は、フィギュア83の鏡像を描画領域に描画する。具体的に、CPU51は、ステップS12で決定したフィギュア83の各身体部位のX〜Z座標のうち、X座標の正負の符号を反転させる。そして、CPU51は、X座標の符号の反転後の各身体部位の座標に基づいて、フィギュア83を描画する。次いで、CPU51は、ステップS32に進む。一方、CPU51は、鏡像表示フラグがONではないと判定した場合には(ステップS29:NO)、ステップS31に進む。ステップS31において、CPU51は、フィギュア83の実像を描画領域に描画する。具体的に、CPU51は、ステップS12で決定したフィギュア83の各身体部位の座標に基づいて、フィギュア83を描画する。次いで、CPU51は、ステップS32に進む。
ステップS32において、CPU51は、鏡像表示切替演出中フラグがONであるか否かを判定する。このとき、CPU51は、鏡像表示切替演出中フラグがONではないと判定した場合には(ステップS32:NO)、ステップS34に進む。一方、CPU51は、鏡像表示切替演出中フラグがONであると判定した場合には(ステップS32:YES)、ステップS33に進む。ステップS33において、CPU51は、ステップS14で決定された演出態様に基づいて、描画領域に描画された運動映像に鏡像表示切替用の演出効果を付与する。例えば演出効果が暗転である場合、CPU51は、例えば描画領域に格納されている各画素の赤、青、緑のそれぞれの輝度値に、ステップS14で決定された明度を掛けて、各輝度値を変更する。次いで、CPU51は、描画領域に格納されているデータを映像信号として表示制御部56に出力することにより、運動映像をディスプレイ67に表示させる(ステップS34)。
次いで、CPU51は、経過フレーム数に基づいて、i番目の運動動作の運動映像の表示が終了したか否かを判定する(ステップS35)。このとき、CPU51は、表示が終了していないと判定した場合には(ステップS35:NO)、ステップS3に進む。一方、CPU51、表示が終了したと判定した場合には(ステップS35:YES)、ステップS36に進む。ステップS36において、CPU51は、実行順番号iに1を加算する。次いで、CPU51は、実行順番号iが運動レッスンを構成する運動動作の数の値よりも大きいか否かを判定する(ステップS37)。このとき、CPU51は、実行順番号iが運動動作の数の値よりも大きくはないと判定した場合には(ステップS37:NO)、ステップS2に進む。一方、CPU51は、実行順番号iが運動動作の数の値よりも大きいと判定した場合には(ステップS37:YES)、運動コンテンツ再生処理を終了させる。
以上説明したように、本実施形態によれば、CPU51が、所定のモーションデータに基づいて運動映像を表示手段に表示させる。また、CPU51が、仮想カメラ91の位置の連続的な変更指示を受け付ける。また、CPU51が、変更指示によって変更された仮想カメラ91の位置が、所定のモーションデータに対応する鏡像表示角度が示す表示範囲に含まれるかを判定する。そして、CPU51が、仮想カメラ91の位置が鏡像表示角度が示す表示範囲に含まれると判定された場合、フィギュア83を鏡像をディスプレイ67に表示させる。従って、運動動作ごとに適した仮想カメラ91の位置の範囲でフィギュア83の鏡像を表示することができる。
1 運動コンテンツ生成システム
2 配信サーバ
3 データベース
5 出力端末
7 HDD
51 CPU
52 ROM
53 RAM
56 表示制御部
60 ネットワーク通信部
63 音声出力部
57 モニタ
64 スピーカ
67 ディスプレイ
2 配信サーバ
3 データベース
5 出力端末
7 HDD
51 CPU
52 ROM
53 RAM
56 表示制御部
60 ネットワーク通信部
63 音声出力部
57 モニタ
64 スピーカ
67 ディスプレイ
Claims (8)
- 三次元仮想空間に配置される仮想物が動作を行う映像を示す映像情報を、前記三次元仮想空間における前記仮想物の身体の座標に基づいて生成するための動作情報と、前記三次元仮想空間に配置される仮想カメラにより撮影される前記仮想物の鏡像の表示範囲を示す範囲情報とを複数記憶する記憶手段と、
前記記憶手段に記憶された複数の前記動作情報のうち所定の動作情報に基づいて、前記三次元仮想空間において前記仮想物が動作する映像であって、前記仮想カメラから撮影された映像を示す前記映像情報を表示手段に表示させる第1制御手段と、
前記三次元仮想空間における前記仮想カメラの位置の連続的な変更指示を受け付ける受付手段と、
前記受付手段により前記変更指示が受け付けられた場合、前記変更指示によって変更された前記仮想カメラの位置が、前記所定の動作情報に対応する前記範囲情報が示す表示範囲に含まれるかを判定する判定手段と、
前記判定手段により前記仮想カメラの位置が前記表示範囲に含まれると判定された場合、前記仮想物の鏡像を示す前記映像情報を前記表示手段に表示させる第2制御手段と、
を備えることを特徴とする情報処理装置。 - 前記記憶手段は、前記仮想物から前記仮想カメラへの方向と前記仮想物からの所定方向とのなす角度の範囲を示す前記範囲情報を記憶し、
前記判定手段は、前記変更指示によって前記位置が変更された前記仮想カメラの前記仮想物からの方向と前記仮想物からの前記所定方向とのなす角度が、前記所定の動作情報に対応する前記範囲情報が示す範囲に含まれるかを判定し、
前記第2制御手段は、前記判定手段により前記角度が前記範囲に含まれると判定された場合、前記仮想物の鏡像を示す前記映像情報を表示させることを特徴とする請求項1に記載の情報処理装置。 - 前記受付手段は、前記仮想カメラの位置を、所定の移動方向へ変更する前記変更指示を、連続して受け付けることを特徴とする請求項1又は2に記載の情報処理装置。
- 前記第2制御手段は、前記判定手段により前記仮想カメラの位置が前記表示範囲に含まれると判定されなかった場合、前記仮想物の実像を示す前記映像情報を表示させることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
- 前記第2制御手段により前記表示手段に前記仮想物の鏡像又は実像を示す前記映像情報が表示されたときの前記仮想カメラの前記三次元仮想空間における位置を示す位置情報を、前記仮想カメラの位置の切替操作により切り替え可能な位置を示す位置情報として前記記憶手段に記憶させる第3制御手段を更に備えることを特徴とする請求項4に記載の情報処理装置。
- 前記第3制御手段は、前記情報処理装置と通信可能なリモコンの切替操作により前記リモコンから前記情報処理装置へ送信される切替指示に基づいて切り替えられる前記仮想カメラの位置として、前記仮想物の鏡像又は実像を示す前記映像情報が表示されたときの前記仮想カメラの位置を示す位置情報を前記記憶手段に記憶させることを特徴とする請求項5に記載の情報処理装置。
- 前記第2制御手段は、前記仮想物の鏡像を示す前記映像情報の表示と、前記仮想物の実像を示す前記映像情報の表示とを切り替えるとき、所定の演出効果が付与された前記映像情報を表示させることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
- 三次元仮想空間に配置される仮想物が動作を行う映像を示す映像情報を、前記三次元仮想空間における前記仮想物の身体の座標に基づいて生成するための動作情報と、前記三次元仮想空間に配置される仮想カメラにより撮影される前記仮想物の鏡像の表示範囲を示す範囲情報とを複数記憶する記憶手段に記憶された複数の前記動作情報のうち所定の動作情報に基づいて、前記三次元仮想空間において前記仮想物が動作する映像であって、前記仮想カメラから撮影された映像を示す前記映像情報を表示手段に表示させる第1制御ステップと、
前記三次元仮想空間における前記仮想カメラの位置の連続的な変更指示を受け付ける受付ステップと、
前記受付ステップにより前記変更指示が受け付けられた場合、前記変更指示によって変更された前記仮想カメラの位置が、前記所定の動作情報に対応する前記範囲情報が示す表示範囲に含まれるかを判定する判定ステップと、
前記判定ステップにより前記仮想カメラの位置が前記表示範囲に含まれると判定された場合、前記仮想物の鏡像を示す前記映像情報を前記表示手段に表示させる第2制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273538A JP2015126826A (ja) | 2013-12-27 | 2013-12-27 | 情報処理装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273538A JP2015126826A (ja) | 2013-12-27 | 2013-12-27 | 情報処理装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015126826A true JP2015126826A (ja) | 2015-07-09 |
Family
ID=53837132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013273538A Pending JP2015126826A (ja) | 2013-12-27 | 2013-12-27 | 情報処理装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015126826A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115052100A (zh) * | 2021-03-09 | 2022-09-13 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
JP7195396B1 (ja) | 2021-09-30 | 2022-12-23 | Kddi株式会社 | 情報端末、情報処理方法及びプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006302122A (ja) * | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | 運動支援システムとその利用者端末装置及び運動支援プログラム |
JP2008299693A (ja) * | 2007-06-01 | 2008-12-11 | Konami Digital Entertainment:Kk | キャラクター表示装置、キャラクター表示方法、ならびに、プログラム |
JP2009110475A (ja) * | 2007-11-01 | 2009-05-21 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理方法、ならびに、プログラム |
JP2011004992A (ja) * | 2009-06-25 | 2011-01-13 | Konami Digital Entertainment Co Ltd | ビデオゲーム装置 |
JP2011194076A (ja) * | 2010-03-19 | 2011-10-06 | Brother Industries Ltd | 運動支援装置、運動支援方法およびプログラム |
JP2011198018A (ja) * | 2010-03-19 | 2011-10-06 | Brother Industries Ltd | 配信システム、端末装置、配信方法、及びプログラム |
JP2011212198A (ja) * | 2010-03-31 | 2011-10-27 | Brother Industries Ltd | 運動支援システム、情報処理装置、情報処理方法およびプログラム |
JP2012178061A (ja) * | 2011-02-25 | 2012-09-13 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び立体視画像生成装置 |
JP2013066613A (ja) * | 2011-09-22 | 2013-04-18 | Konami Digital Entertainment Co Ltd | ゲーム装置、表示方法、および、プログラム |
-
2013
- 2013-12-27 JP JP2013273538A patent/JP2015126826A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006302122A (ja) * | 2005-04-22 | 2006-11-02 | Nippon Telegr & Teleph Corp <Ntt> | 運動支援システムとその利用者端末装置及び運動支援プログラム |
JP2008299693A (ja) * | 2007-06-01 | 2008-12-11 | Konami Digital Entertainment:Kk | キャラクター表示装置、キャラクター表示方法、ならびに、プログラム |
JP2009110475A (ja) * | 2007-11-01 | 2009-05-21 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理方法、ならびに、プログラム |
JP2011004992A (ja) * | 2009-06-25 | 2011-01-13 | Konami Digital Entertainment Co Ltd | ビデオゲーム装置 |
JP2011194076A (ja) * | 2010-03-19 | 2011-10-06 | Brother Industries Ltd | 運動支援装置、運動支援方法およびプログラム |
JP2011198018A (ja) * | 2010-03-19 | 2011-10-06 | Brother Industries Ltd | 配信システム、端末装置、配信方法、及びプログラム |
JP2011212198A (ja) * | 2010-03-31 | 2011-10-27 | Brother Industries Ltd | 運動支援システム、情報処理装置、情報処理方法およびプログラム |
JP2012178061A (ja) * | 2011-02-25 | 2012-09-13 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び立体視画像生成装置 |
JP2013066613A (ja) * | 2011-09-22 | 2013-04-18 | Konami Digital Entertainment Co Ltd | ゲーム装置、表示方法、および、プログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115052100A (zh) * | 2021-03-09 | 2022-09-13 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
JP7195396B1 (ja) | 2021-09-30 | 2022-12-23 | Kddi株式会社 | 情報端末、情報処理方法及びプログラム |
JP2023050996A (ja) * | 2021-09-30 | 2023-04-11 | Kddi株式会社 | 情報端末、情報処理方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020138107A1 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム | |
US9473699B2 (en) | Storage medium storing information processing program, information processing device, information processing system, and information processing method | |
KR101036792B1 (ko) | 캐릭터 표시장치, 캐릭터 표시방법, 정보기록매체 및 프로그램 | |
US9509907B2 (en) | Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method | |
JP2005295004A (ja) | 立体画像処理方法および立体画像処理装置 | |
JP2010517129A (ja) | ビデオストリームにおいて、マーク無しに、テクスチャー化平面幾何学的オブジェクトをリアルタイムで自動追跡するリアリティ向上方法および装置 | |
JP2012090905A (ja) | データ生成装置、データ生成装置の制御方法、及びプログラム | |
CN113891060B (zh) | 自由视点视频重建方法及播放处理方法、设备及存储介质 | |
JP2012090904A (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
KR100956454B1 (ko) | 가상 스튜디오 자세 교정 장치 | |
CN115428032A (zh) | 信息处理装置、信息处理方法和程序 | |
JP3724117B2 (ja) | 画像生成装置および画像生成方法 | |
US20240303947A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
JP2021068330A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US7932903B2 (en) | Image processor, image processing method and information storage medium | |
JP2015126826A (ja) | 情報処理装置及びプログラム | |
US20240114181A1 (en) | Information processing device, information processing method, and program | |
JP5928279B2 (ja) | 運動支援装置及びプログラム | |
JP2021015440A (ja) | 情報処理装置、設定方法、及びプログラム | |
JP5359950B2 (ja) | 運動支援装置、運動支援方法およびプログラム | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
JP2020095465A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
Zünd et al. | Unfolding the 8-bit era | |
JP2021076923A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4142427B2 (ja) | 画像合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161213 |