JP2012212237A - 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 - Google Patents

画像生成システム、サーバシステム、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
JP2012212237A
JP2012212237A JP2011076493A JP2011076493A JP2012212237A JP 2012212237 A JP2012212237 A JP 2012212237A JP 2011076493 A JP2011076493 A JP 2011076493A JP 2011076493 A JP2011076493 A JP 2011076493A JP 2012212237 A JP2012212237 A JP 2012212237A
Authority
JP
Japan
Prior art keywords
motion
motion input
input
player
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011076493A
Other languages
English (en)
Inventor
Vance James
バンス ジェームズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011076493A priority Critical patent/JP2012212237A/ja
Publication of JP2012212237A publication Critical patent/JP2012212237A/ja
Withdrawn legal-status Critical Current

Links

Abstract

【課題】プレーヤのモーションを検出して入力に使用する画像生成システムにおいて、プレーヤの意図により忠実にプレーヤのモーションを反映させることが可能な画像生成システム等を提供すること。
【解決手段】プレーヤのモーションを検出するモーション検出部150が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段112と、操作部160からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段113と、仮想空間を仮想カメラから見た画像を生成する画像生成手段120と、を含む。
【選択図】図19

Description

本発明は、画像生成システム、サーバシステム、プログラム及び情報記憶媒体に関する。
従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。
最近ではヘッドトラッキング機能や、Webカメラを用いたモーション検出機能を搭載して、プレーヤの体の部位(例えば頭等)の動きを検出して、キャラクタを動かしたり、視点を動かしたりするゲームも提供されている。
特表2009−519105号公報
プレーヤの動きを入力とするようなゲームにおいては、ゲーム中にプレーヤが無意識に動いてしまうと、プレーヤの意図とは関係なくキャラクタや視点が動いてしまうという問題点があった。このような場合プレーヤにとっては誤動作と感じられるため、プレーヤの意図しない動きがゲームに反映されないようにするために、プレーヤの動きが所定の閾値を超えた場合にゲームに反映させることもできるが、プレーヤによっては、感度が鈍く感じる場合もある。このように入力を反映させるための閾値に対する許容度もプレーヤによってまちまちであるため、プレーヤが意図した通りプレーヤのモーションの動きをゲームに反映させることが困難であるという問題点があった。
本発明は、以上のような課題を解決するためになされたものである。本発明のいくつかの態様によれば、プレーヤのモーションを検出して入力に使用する画像生成システムにおいて、プレーヤの意図により忠実にプレーヤのモーションを反映させることが可能な画像生成システム、サーバシステム、プログラム及び情報記憶媒体提供することができる。
(1)本発明の一態様は、
プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段と、
操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段と、
仮想空間を仮想カメラから見た画像を生成する画像生成手段と、を含む画像生成システムに関する。
モーション検出部は、プレーヤのモーション(プレーヤの所定の部位(例えば頭や目や手の動き、位置等)を検出できるものであればよい。例えばヘッドトラッキング機能を有する装置やWebカメラや赤外線カメラ等の撮影手段と撮影画像の解析手段を備える装置等によって実現可能である。
操作部からのモーション入力有効モード設定指示入力は、プレーヤがモーション入力中であることを指示するための入力(例えばモーション入力中はボタンを押した状態にするタイプの入力)でもよいし、入力モードを切り替えること指示する入力(例えば通常モードからモーション入力有効モードに切り替えるためのボタンを押下)でもよい。
操作部等に設けられたボタンや方向指示レバー等による入力情報に基づき仮想空間内でプレーヤキャラクタを移動動作させたり、視点制御を行うことができるようにしてもよい。
例えばモーション入力有効モード以外のモード(例えば通常モード)の場合には、操作部等に設けられたボタンや方向指示レバー等に基づきプレーヤキャラクタの移動動作や視点制御を行い、モーション入力有効モードの場合には、それらに加えて、さらにモーション入力情報に基づいて、プレーヤキャラクタの移動動作や視点制御を行うようにしてもよい。またモーション入力有効モードの場合には、操作部等に設けられたボタンや方向指示レバー等に基づきプレーヤキャラクタの移動動作や視点制御に所定の制限を設けたり、無効にしたりしてもよい。
なお仮想カメラはプレーヤキャラクタに追従し、プレーヤキャラクタの近くに設定されて、プレーヤキャラクタを含む画像(3人称視点の画像)を生成する場合でもよいし、プレーヤキャラクタ自体の視点から見た画像(1人称視点の画像)を生成する場合でもよい。 3人称視点の画像を生成する場合には、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の両方に作用させる用にしてもよいし、どちらか一方(例えばプレーヤキャラクタ)に作用させるようにしてもよい。
1人称視点の画像を生成する場合には、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の両方に作用させる用にしてもよいし、どちらか一方(例えば仮想カメラ)に作用させるどちらか一方に作用させるようにしてもよい。仮想カメラの制御とは、例えば仮想カメラの位置や向き(配置)や画角の制御でもよい。
プレーヤキャラクタに対するモーション入力制御は、例えばモーション入力情報に基づきプレーヤキャラクタの位置(ワールド座標系における位置でもよいし、例えばプレーヤキャラクタのローカル座標系における位置)や回転や使用するモーションの切り替えや選択に関する制御でもよい。
仮想カメラ(視点)に対するモーション入力制御は、例えばモーション入力情報に基づき仮仮想カメラ(視点)位置(ワールド座標系における位置でもよいし、例えばプレーヤキャラクタのローカル座標系における位置)や回転や画角に関する制御でもよい。
例えばプレーヤの頭部の左右方向の動きを検出して、当該左右方向の動きに基づき、仮想空間のプレーヤキャラクタの上体や仮想カメラの位置を左右方向に動かしたりしてもよい。またプレーヤの頭部の向きや回転等を検出して、仮想空間のプレーヤキャラクタの向きや仮想カメラの向きを変化させてもよい。
本発明によれば、プレーヤがモーション入力を行う際には、操作部からモーション入力有効モード設定指示入力を行いながら、頭部等を動かすモーションを行う。従って、モーション入力を意図した動きのみがモーション入力として採用され、無意識に行った意図しない動きはモーション入力として採用されない。従ってプレーヤの誤動作をモーション入力に反映させにくいユーザインタフェースを有する画像生成システムを提供することができる。
(2)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
生成された画像を表示する表示部と、
前記モーション検出部と、
前記モーション入力有効モード設定指示入力を含む操作入力が行われる操作部と、
が携帯型の筐体に一体的に形成されてもよい。
本発明によれば、携帯型の筐体を持ったユーザが行うモーションを、携帯型の筐体に設けられたモーション検出部が検出して、モーション入力を行うことができる携帯型の画像生成システムを提供することができる。
(3)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記モーション入力情報演算手段は、
生成された画像が表示される表示部を含む前記筐体の動きを検出する筐体モーション検出部が検出した前記筺体モーション情報と、前記モーション検出情報に基づき、前記モーション入力情報を求めてもよい。
筐体の動きとは筐体の姿勢、動作、移動、回転等でもよい。
前記モーション入力情報演算手段は、
前記筺体モーション情報と、前記モーション検出情報に基づき、前記筐体に対するプレーヤの相対的なモーションを検出して、相対的なモーションに対応したモーション入力情報を求めてもよい。
この様にすれば、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に、筐体に対するプレーヤの相対的なモーションを作用させることができる。
(4)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記筐体モーション検出部を含んでもよい。
筐体モーション検出部は、筐体の動き(姿勢、動作、移動、回転等)を検出するもので、加速度、角速度、速度などの物理量を検出するセンサを内蔵することで、筐体の動き、姿勢、向き等を検出するようにしてもよい。なおセンサには、加速度センサ(圧電型や動電式、歪みケージ式等)や姿勢方位センサやジャイロなどを用いることができる。
(5)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記モーション入力制御手段は、
前記モーション入力情報に基づき行うプレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方による所与のパラメータの変動幅に上限を設定し、パラメータの変動幅が設定された上限を超えない範囲で変化させる制御を行ってもよい。
所与のパラメータとは、例えばプレーヤキャラクタの位置(ワールド座標系における位置でもよいし、例えばプレーヤキャラクタのローカル座標系における位置)や回転や使用するモーションの切り替えや選択に関するパラメータでもよいし、仮想カメラ(視点)位置(ワールド座標系における位置でもよいし、例えばプレーヤキャラクタのローカル座標系における位置)や回転や画角に関するパラメータでもよい。
この様にすれば、モーション入力をプレーヤの細かな動作に反映させるのに適している。またプレーヤのモーション入力による変位が大きくなりすぎるのを防止することができるので、モーション入力終了の通常モードへの移行がスムーズになる。またモーション入力有効モードにおいては操作部からの入力によるプレーヤキャラクタや仮想カメラの制御と併存させやすい。
(6)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
操作部からの入力情報に基づき、プレーヤキャラクタの移動動作演算を行う移動動作演算手段をさらに含み、
前記移動動作演算手段は、
前記モーション入力有効モードの間は、操作部からの入力情報によるプレーヤキャラクタの移動動作に所定の制限を加えてもよい。
(7)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
操作部からの入力情報に基づき、ヒットチェックを行うゲーム演算手段をさらに含み、
前記ゲーム演算手段は、
前記モーション入力有効モードの間は、プレーヤキャラクタに関連するヒットチェックの命中率及びダメージ量の少なくとも一方を変化させてもよい。
(8)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記モーション入力情報演算手段は、
前記モーション検出部が検出したモーション検出情報に基づき、プレーヤのモーションの所定方向の変位成分を抽出し、所定方向の変位成分に基づき前記モーション入力情報を求めてもよい。
この様にするとプレーヤの動きの所定方向の変位成分に基づいてモーション入力制御を行うことができるので、プレーヤの複雑な動きから特徴的な動きを抽出してモーション入力制御を行うことができる。
(9)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記モーション入力制御手段は、
前記プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方を行う際に、所与のパラメータの変化の起点となる基準位置を設定し、前記モーション入力情報に基づき前記基準位置からの変位を求め、求めた変位に応じて前記基準位置から所与のパラメータを変化させる制御を行ってもよい。
(10)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記モーション入力情報演算手段は、モーション検出部が検出したモーション検出情報に基づき、前記プレーヤの所定の部位の位置が所定の範囲外に移動したと判断した場合には、所定の部位の位置が上限を超えたことを示すモーション入力情報を生成し、
前記モーション入力制御手段は、前記モーション入力情報が、所定の部位の位置が上限を超えたことを示している場合には、前記プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方を行う際に、予め設定されている上限変位を示すモーション入力が行われたものとして制御を行ってもよい。
ここにおいてプレーヤの所定の部位とは、例えば頭部でもよい。所定の部位の位置の上限は、表示画面の見るのに支障の出る位置に基づき設定してもよい。この様にするとプレーヤの頭部等が、例えば表示範囲外になるとモーションや仮想カメラの動きが最大になるような制御を行うことができる。
(11)この画像生成システム、サーバシステムプログラム及び情報記憶媒体において、
生成された画像を表示する表示部を備える本体と、
前記モーション検出部と、前記入力モード設定指示が入力される操作部とを備えるコントローラを含んでもよい。
(12)この画像生成システム、サーバシステム、プログラム及び情報記憶媒体において、
前記表示部は本体の表面に設けられ、
前記本体の背面に設けられたタッチスクリーンが携帯型の筐体に一体的に形成されていてもよい。
(13)本発明の一態様は、
プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段と、
操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段と、
仮想空間を仮想カメラから見た画像を生成する画像生成手段と、を含むサーバシステムに関する。
(14)本発明の一態様は、
プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段と、
操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段と、
仮想空間を仮想カメラから見た画像を生成する画像生成手段と、してコンピュータを機能させるプログラムに関する。
(15)本発明の一態様は、
上記に記載のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体に関する。
本実施形態の画像生成システムの機能ブロック図。 本実施形態の画像生成システムを携帯型ゲーム装置で実現する例を示す図。 プレーヤキャラクタや敵キャラクタが存在する仮想空間の一部を表した図。 図4(A)(B)は、携帯型ゲーム装置のモーション入力の一例を示す図。 図5(A)(B)は、図4(A)(B)に対応した携帯型ゲーム機の撮影画像。 プレーヤのモーションとモーション入力情報の関係について説明するための図。 プレーヤのモーションとモーション入力情報の関係について説明するための図。 図8(A)(B)は、携帯型ゲーム装置の筐体が傾いている場合のモーション入力情報について説明するための図。 図9(A)〜(C)は、携帯型ゲーム装置の筐体が傾いている場合のモーション入力情報について説明するための図。 図10は、携帯型ゲーム装置の筐体に対するプレーヤの頭部の相対的な変位について説明するための図。 図11(A)(B)は、モーション入力有効設定指示入力ボタンの押下とモーション入力有効モードの関係を示す図。 図12(A)(B)は戦闘ポイントにおけるモーション制御について説明するための図。 図13は、モーション入力情報に基づくプレーヤキャラクタの動作制御の一例について説明するための図。 モーション入力情報による仮想カメラの制御の一例について説明する図。 モーション入力情報に基づくプレーヤの基準位置からの移動距離の制御の一例について説明するためのグラフ。 携帯型でない画像生成システムの概略外観図(コントローラにモーション検出部を有している場合)。 携帯型でない画像生成システムの概略外観図(モーション検出部が表示部の側に設置されている場合)。 入力モードの切り替え処理の流れを示すフローチャート。 入力モード制御処理の流れを示すフローチャート。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.構成
図1に本実施形態の画像生成システム(コンピュータ、端末、ゲーム装置)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
入力部160は、プレーヤからの入力情報を入力するための入力機器であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、プレーヤの入力情報(入力信号)を検出する検出部162を備える。入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。
例えば、入力機器は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力機器には、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力機器には、入力機器と本体が一体化されている画像生成システム、携帯型画像生成システム、携帯電話なども含まれる。
検出部162は、入力部160からの入力情報を検出する処理を行う。例えば、検出部162は、入力部160の引き金(トリガ)が引かれることによって発生する入力信号を、入力情報(攻撃入力情報)として検出する。例えば、検出部162は、入力部160から照準(ガンサイト)の位置を指示する入力情報(指示入力情報)を検出する。
例えば、入力部160が、液晶ディスプレイと、プレーヤの接触位置を検出するためのタッチパネルとが積層されたタッチパネル型ディスプレイで有る場合には、タッチペンなどの指示入力機器や指先の接触位置情報を入力情報として検出する。
撮像部150は、被写体を撮像するものであり、CCDやCMOSセンサなどの撮像素子や、レンズ等の光学系により実現できる。撮像素子から得られた撮像画像を処理してプレーヤのモーションを検出してもよく、プレーヤのモーション(位置を含む)を検出するモーション検出部として機能する。
筐体モーション検出部140は、生成された画像が表示される表示部を含む筐体の動き(姿勢、動作、移動、回転等)を検出するもので、加速度、角速度、速度などの物理量を検出するセンサを内蔵することで、筐体の動き、姿勢、向き等を検出するようにしてもよい。なおセンサには、加速度センサ(圧電型や動電式、歪みケージ式等)や姿勢方位センサやジャイロなどを用いることができる。
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機
能はRAM、VRAMなどにより実現できる。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
例えばゲーム画像等を表示する表示部は本体の表面に設けられ、本体の背面にタッチスクリーンを設けてもよい。
通信部196は外部(例えば他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して画像生成システムを機能させる場合も本発明の範囲内に含む。
処理部100(プロセッサ)は、入力部160からの入力情報やプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。
この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、GPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
処理部100は、オブジェクト空間設定部110、仮想カメラ制御部111、モーション入力情報演算部112、モーション入力制御部113、移動・動作演算部114、ゲーム演算部115、画像生成部120、音処理部130を含む。なおこれらの一部を省略する構成としてもよい。
オブジェクト空間設定部110は、キャラクタ(プレーヤキャラクタや敵キャラクタのオブジェクト)の他に、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を、オブジェクト空間に配置設定する処理を行う。
ここでオブジェクト空間とは、仮想的なゲーム空間であり、2次元空間、3次元空間の両方を含む。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。
例えば、オブジェクト空間設定部110は、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。
仮想カメラ制御部111は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、3次元の画像を生成する場合には、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。また、仮想カメラ制御部111は、仮想カメラを、予め決められた回転角度で回転させてもよい。この場合には、仮想カメラの位置又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。
本実施形態では、プレーヤキャラクタの視点(一人称視点)に基づいて画像を生成するFPS(First Person Shooting)でもよいし、画面に主人公が登場して、これをユーザが操作するタイプのTPS(Third Person Shooting)でもよい。また、本実施形態では、仮想カメラの移動、向き、画角はプログラム又は入力部160の入力情報に基づいて仮想カメラの移動、向き、画角を制御される。
例えば仮想カメラによりオブジェクト(例えば、プレーヤキャラクタ)を後方から撮影する場合には、オブジェクトの位置、向きの変化に仮想カメラが追従するように、仮想カメラの位置、仮想カメラの向きを制御する。この場合には、移動・動作演算部114で得られたオブジェクトの位置、向き又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた向きに設定したり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は向きを特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。
移動・動作演算部114は、オブジェクト空間において、オブジェクトを移動・動作させる処理を行う。すなわち入力部160から入力された入力情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、移動速度、加速度、移動量、移動方向などの移動パラメータ)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(例えば、1/60秒)毎に順次求める処理を行う。なおフレームは、オブジェクトの移動・動作処理や画像生成処理を行う時間の単位である。
ゲーム演算部115は、種々のゲーム処理を行う。例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、最終ステージをクリアした場合にはエンディングを進行させる処理などがある。
また、ゲーム演算部115は、プレーヤキャラクタの所与のパラメータ(体力値)が所定値(0)に達したか否かを判断する処理を行い、プレーヤキャラクタの所与のパラメータ(体力値)が所定値(0)に達した場合に、ゲーム終了と判定する処理を行う。
モーション入力情報演算部112は、プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算し、モーション入力制御部113は、操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行う。
モーション入力情報演算部112は、生成された画像が表示される表示部を含む前記筐体の動きを検出する筐体モーション検出部が検出した前記筺体モーション情報と、前記モーション検出情報に基づき、前記モーション入力情報を求めてもよい。
またモーション入力制御部113は、前記モーション入力情報に基づき行うプレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方による所与のパラメータの変動幅に上限を設定し、パラメータの変動幅が設定された上限を超えない範囲で変化させる制御を行ってもよい。
移動・動作演算部114は、操作部からの入力情報に基づき、プレーヤキャラクタの移動動作演算を行い、前記モーション入力有効モードの間は、操作部からの入力情報によるプレーヤキャラクタの移動動作に所定の制限を加えてもよい。
ゲーム演算部115は、操作部からの入力情報に基づき、ヒットチェックを行い、前記モーション入力有効モードの間は、プレーヤキャラクタに関連するヒットチェックの命中率及びダメージ量の少なくとも一方を変化させてもよい。
モーション入力情報演算部112は、前記モーション検出部(撮像部150)が検出したモーション検出情報に基づき、プレーヤのモーションの所定方向の変位成分を抽出し、所定方向の変位成分に基づき前記モーション入力情報を求めてもよい。
前記モーション入力制御部113は、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方を行う際に、所与のパラメータの変化の起点となる基準位置を設定し、前記モーション入力情報に基づき前記基準位置からの変位を求め、求めた変位に応じて前記基準位置から所与のパラメータを変化させる制御を行ってもよい。
前記モーション入力情報演算部112は、モーション検出部(撮像部150)が検出したモーション検出情報に基づき、前記プレーヤの所定の部位の位置が所定の範囲外に移動したと判断した場合には、所定の部位の位置が上限を超えたことを示すモーション入力情報を生成し、モーション入力制御部113は、前記モーション入力情報が、所定の部位の位置が上限を超えたことを示している場合には、前記プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方を行う際に、予め設定されている上限変位を示すモーション入力が行われたものとして制御を行ってもよい。
画像生成部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。画像生成部120が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元画像であってもよい。
2次元画像を生成する場合には、例えば、オブジェクト(スプライト)毎に優先度を設定し、設定された優先度が低いオブジェクトから順に描画する。オブジェクト同士が重なる場合には、優先度が低いオブジェクトの上に、優先度の高いオブジェクトを描画する。
いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂
等を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオ
メトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。
そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、ピクセルデータ、ボクセルデータなどの画素データ(色(RGB)、α値、Z値、輝度等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を生成することができる。
なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。
そして画像生成部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。
テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。
隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。
αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。 なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
なお画像生成部120は、立体視用画像を生成してもよい。立体視用画像を生成する場合に、視点に基づき左眼用仮想カメラ及び右眼用仮想カメラの設定を行い、オブジェクト空間において左眼用仮想カメラから見える左眼用画像と、オブジェクト空間において右眼用仮想カメラから見える右眼用画像を生成する。
立体視方式としては、2眼分離眼鏡方式や、パララックスバリアやレンチキュラや、その他、光線の方向を制御することができる光学素子を用いた裸眼方式などの様々な方式を想定できる。2眼分離眼鏡方式としては、例えば偏光眼鏡方式、継時分離方式、色分離方式などがあるが、いずれかの方式に対応した立体視用画像を生成するものであればよい。
音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
また、音生成部130は、プレーヤキャラクタや所定のオブジェクトの位置に応じて音像定位が変化する音を生成してもよい。例えば、所定のオブジェクトが画面よりも手前側に飛び出して見える場合には、所定のオブジェクトに対応する音の音像定位を画面よりも手前側の位置に設定し、所定のオブジェクトが画面よりも奥側に引っ込んで見える場合には、所定のオブジェクトに対応する音の音像定位を画面よりも手前側の位置に設定してもよい。また、所定のオブジェクトやプレーヤキャラクタの移動に連動して音像定位の位置を移動させるようにしてもよい。
なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード用の装置にしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードを備える装置にしてもよい。
また、本実施形態の画像生成システムをサーバシステムとして構成してもよい。サーバシステムは、1又は複数のサーバ(認証サーバ、ゲーム処理サーバ、通信サーバ、課金サーバ、データベースサーバ等)により構成することができる。この場合には、サーバシステムは、ネットワークを介して接続された1又は複数の端末装置(例えば、据え置き型ゲーム装置、携帯型ゲーム装置、プログラム実行可能な携帯電話等)から送信された操作情報に基づき各種処理を行って、立体視用画像を生成するための画像生成用データを生成し、生成した画像生成用データを各端末装置に対して送信する。ここで、画像生成用データとは、本実施形態の手法により生成された立体視用画像を各端末装置において表示するためのデータであり、画像データそのものでもよいし、各端末装置が立体視用画像を生成するために用いる各種データ(オブジェクトデータ、ゲーム処理結果データ等)であってもよい。
2.携帯型ゲーム装置
図2は、本実施形態の画像生成システムを携帯型ゲーム装置200で実現する例を示す図である。携帯型ゲーム装置200は、生成された画像を表示する表示部210と、モーション検出部220と、モーション入力有効モード設定指示入力を含む操作入力が行われる操作部(スライドパッド232、234、十字キー234、ボタン230、セレクトボタン等242、244等)とが携帯型ゲーム装置に一体的に形成されている。
また携帯型画像生成システム200には、操作者が音入力(音声入力)を行うための音入力装置(マイク)が設けられていてもよい。
また、本実施形態の表示部210は、液晶ディスプレイとタッチパネルとを積層して構成し、表示領域に対する接触操作位置を検出できるようにしてもよい。
本実施形態の表示部210は、コンピュータ(プロセッサ)を内蔵している。モーション入力情報演算手段、モーション入力制御手段、画像生成手段として機能するコンピュータ(プロセッサとソフトウエア)は、携帯型ゲーム装置200に内蔵されているコンピュータでもよいし、携帯型ゲーム装置200に内蔵されているコンピュータと通信可能なサーバのコンピュータでもよいし、携帯型の筐体に設けられているプロセッサとサーバのプロセッサが協働して機能する場合でもよい。
なおモーション入力情報演算手段、モーション入力制御手段、画像生成手段として機能するコンピュータ(プロセッサとソフトウエア)が、サーバのコンピュータである場合には、サーバシステムは、ネットワークを介して接続された携帯型ゲーム装置から送信された操作情報やモーション検出情報に基づき各種処理を行って、画像を生成するための画像生成用データを生成し、生成した画像生成用データを携帯型ゲーム装置200に対して送信する。
携帯型ゲーム装置200ではモーション検出部220は、レンズ224、撮像素子(イメージセンサ)226、画像処理回路228等を含む撮像手段で構成することができる。されている。
撮像素子226は、例えば、CMOSセンサやCCDのような固体撮像素子であり、レンズ224が集光した光を撮像して撮像画像を生成する。撮像素子226で生成された撮像画像は、画像処理回路228で処理される。例えば、撮像素子226から得られた撮像画像を解析して、撮像画像におけるプレーヤの所定の部位(例えば頭や目等)の位置情報を検出し、モーション検出情報としてもよい。
また携帯型画像生成システム200は、生成された画像が表示される表示部210を含む前記筐体の姿勢を検出する筐体モーション検出部250を含んでもよい。筐体モーション検出部250は、携帯型ゲーム装置200が加速度、角速度、速度などの物理量を検出するセンサを内蔵することで、携帯型ゲーム装置200の動き、姿勢、向き等を検出してもよい。なおセンサには、加速度センサ(圧電型や動電式、歪みケージ式等)や姿勢方位センサやジャイロなどを用いることができる。 例えば加速度センを用いて、3軸(X軸、Y軸、Z軸)の加速度を検出してもよい。
3.本実施の形態の手法
(1)本実施の形態が適用可能なゲームの概要
操作部等に設けられたボタンや方向指示レバー等による入力情報に基づき仮想空間内でプレーヤキャラクタを移動動作させ、敵キャラクタに対しシューティングを行うゲームを例にとり説明する。
図3は、プレーヤキャラクタや敵キャラクタが存在する仮想空間の一部を表した図である。仮想空間290は都会の地形を模して設定されており、プレーヤキャラクタCPが通行可能な道路292が設定され道路292以外の部分には建物等の静止オブジェクト294(斜線部分)が配置されプレーヤキャラクタは通行できないように構成されている。プレーヤは、操作部に設けられた方向指示入力画可能なレバーやボタン等(第1の操作部位)を操作することにより、仮想空間内に設けられた道路290上でプレーヤキャラクタPCを自由に移動させることができる。またプレーヤは、操作部に設けられたシューティングボタン等(第2の操作部位)を操作することにより敵キャラクタEC等をシューティング攻撃することができる。またプレーヤは、操作部に設けられたモーション入力有効設定指示入力ボタン等(第3の操作部位)を操作することにより、モーション入力を行っている状態であることを画像生成システムに通知することができる。
また通信対戦等でマルチプレーヤゲームを行う場合には敵キャラクタECは、他のプレーヤのプレーヤキャラクタでもよい。またシングルプレーヤゲームを行う場合には、敵キャラクタECは、NPC(Non Player Character)でもよく、敵キャラクタECも仮想空間内を移動し、プレーヤキャラクタPCにシューティング攻撃することができる。
本実施の形態のゲームでは、プレーヤは操作部(ボタンや方向指示レバー等)を操作することによる操作入力(第1の操作部位、第2の操作部位、第3の操作部位を操作することによる操作入力)と、プレーヤ自身の動きによる入力(モーション入力)を行うことができる。モーション入力は、撮像部がとらえたプレーヤの画像からプレーヤの動きを検出することにより、画像生成システムで認識することができる。
プレーヤは操作部からの操作入力により、仮想空間内におけるプレーヤキャラクタの移動方向や移動速度を入力することで、プレーヤキャラクタを、図3に示すような仮想空間290の道路292を、所望の方向に所望の速度で移動させることができる。
この様なゲームにおける仮想カメラに対するモーション入力制御の一例としては、例えばモーション入力により、仮想カメラの視線方向を変化させる制御を行ってもよい。またプレーヤキャラクタに対するモーション入力制御の一例としては、例えばモーション入力により、プレーヤキャラクタの視線方向を変化させる制御を行ってもよい。
すなわち、操作部からの操作入力によりプレーヤキャラクタを移動させ、プレーヤのモーションによるモーション入力によりプレーヤキャラクタ(仮想カメラ)の視線方向を変化させる。この様にすると、1人称視点では視点位置は同じであるが視線方向が異なる景色の画像が生成され、プレーヤの顔の動きにあわせて、仮想空間内の見える方向が変化するような画像を生成することができる。例えばプレイヤの頭が左(右)を向くと、仮想カメラが左(右)を向くように仮想カメラを制御してもよい。
また3人称視点の画像では、プレーヤキャラクタの顔の向きを変化させる動作制御をあわせて行うとよい。この様にすると、プレーヤの顔の動きにあわせて、仮想空間内のプレーヤキャラクタの顔がうごいている画像を生成することができる。
またこの様なゲームにおけるプレーヤキャラクタに対するモーション入力制御の他の例として、例えばモーション入力により仮想空間の地形に合わせて、プレーヤキャラクタが物陰に隠れたり、物陰から身を乗り出したりする動作制御とそれに伴う視点位置の制御等を行ってもよい。
仮想空間290のマップ上には、幾つかの戦闘ポイントTP1、TP2、TP3、・・・が存在する。戦闘ポイントTP1、TP2、TP3、・・・は、仮想空間内で戦闘する上で有利な場所であり、例えば壁や建物や木や車や岩等の防御壁オブジェクト266−1、296−2、296−3の陰に当たる位置に設定され、敵からの攻撃を受けにくい場所となっていてもよい。戦闘ポイントにおいて物陰に隠れながら敵キャラクタECを攻撃することで敵キャラクタECに対し有利な戦闘を行うことができるため、操作部からの操作入力により、プレーヤキャラクタを戦闘ポイントに移動させてもよい。
例えば図3の戦闘ポイントTP3は、防御壁オブジェクト296−3の陰に設定されており、プレーヤキャラクタPCが防御壁オブジェクト296−3の陰に隠れて、防御壁オブジェクト296−3の向こう側にいる敵キャラクタECを攻撃する戦闘が予定されている。例えば戦闘ポイントによって異なる攻撃パターンが用意されている。
戦闘ポイントにいるプレーヤキャラクタは、モーション入力に基づき、隠れ状態(物陰に隠れているので攻撃できない状態)と攻撃状態(物陰から体の一部をだして敵に攻撃を行う状態)に切り替えられるようにしてもよい。
またプレーヤキャラクタが戦闘ポイントに位置する場合には、基準状態が物陰に隠れている状態になり、プレーヤが頭を左右に動かしたり、上下に動かすことで、プレーヤキャラクタを物陰から顔を出すように、プレーヤキャラクタの動作を制御してもよい。この様にすることにより、物陰に隠れて敵を攻撃するという、ドラマのようなシューティングの醍醐味をあじわうことができる。
図12(A)(B)は戦闘ポイントにおけるモーション制御について説明するための図である。図12(A)の420−1は、プレーヤキャラクタPCの身長よりも高い壁430の陰である戦闘ポイントTP1において隠れ状態にあるプレーヤキャラクタPCの様子を示し、図12(A)の420−2は戦闘ポイントTP1において攻撃状態にあるプレーヤキャラクタPCの様子を示している。プレーヤが頭部を左方向に動かすモーション入力を行うことで、仮想空間のプレーヤキャラクタを420−1の隠れ状態から420−2の攻撃状態に変化させるモーション入力制御をおこなってもよい。隠れ状態420−1では、プレーヤキャラクタPCが立った状態で壁430の後ろに隠れている動作(「立ち隠れ」)を行わせ、攻撃状態420−2では、プレーヤキャラクタPCが立った状態で右半身を壁430から出して攻撃を行う動作(「立ち右攻撃」)を行わせる。すなわち戦闘ポイントTP1では、プレーヤキャラクタPCに対し、モーション入力がない状態では立った状態で壁430の後ろに隠れている「立ち隠れ」モーションを実行し、プレーヤが頭を左に動かすモーション入力を行うと、立った状態でプレーヤキャラクタの右半身を壁430から出して攻撃を行う「立ち右攻撃」のモーションを実行するように、プレーヤキャラクタのモーション内容を変化させる制御を行ってもよい。
図12(B)の440−1は、プレーヤキャラクタPCの身長よりも低い壁450の陰である戦闘ポイントTP3において隠れ状態にあるプレーヤキャラクタPCの様子を示し、図12(B)の440−2は、戦闘ポイントTP3において攻撃状態にあるプレーヤキャラクタPCの様子を示している。プレーヤが頭部を上方向に動かすモーション入力を行うことで、仮想空間のプレーヤキャラクタを440−1の隠れ状態から440−2の攻撃状態に変化させるモーション入力制御をおこなってもよい。隠れ状態440−1では、プレーヤキャラクタPCがしゃがんだ状態で壁450の後ろに隠れている動作(「しゃがみ隠れ」)を行わせ、攻撃状態440−2では、プレーヤキャラクタPCが立った状態で右半身を壁430から出して攻撃を行う動作(「立ち攻撃」)を行わせる。すなわち戦闘ポイントTP3では、プレーヤキャラクタPCに対し、攻撃入力がない状態(隠れ状態)ではしゃがんだ状態で壁450の後ろに隠れている「しゃがみ隠れ」モーションを実行し、プレーヤが頭を上に動かすモーション入力を行うと、立った状態でプレーヤキャラクタの上半身を壁450から出して攻撃を行う「立ち攻撃」のモーションを実行するように、プレーヤキャラクタのモーション内容を変化させる制御を行ってもよい。
(2)モーション入力情報
本実施の形態では、モーション検出部でプレーヤの体の少なくとも一部(例えば頭や顔や手等)の動きを検出して、その動きに応じて仮想空間内のプレーヤキャラクタの向きや頭部の動きを変更したり、仮想カメラの視点の向き等を変更したりすることができる。
モーション検出部はヘッドトラッキング機能を有する装置やWebカメラ(ウェブカメラ)等の撮像部や、赤外線センサ等でも実現可能である。
Webカメラ(ウェブカメラ)は、WWW、インスタントメッセージ、PCビデオ等を使用して、撮影された画像にアクセスできるリアルタイムカメラのことであり、一般的に、撮影された画像は、リアルタイム、または一定間隔で保存される。PCに接続しリアルタイム画像転送の可能なUSB、IEEE 1394等のインターフェイスを持ったカメラでもよいし、ネットワークインターフェイスを持ち、WWWでアクセス可能なカメラのついた組み込み機器(ネットワークカメラ)でもよい。
またモーション検出部は、例えば頭の動きを検知するヘッドトラッキング機能を搭載した眼鏡等でも実現可能である、プレーヤが眼鏡を装着して頭を動かす時の、向きを検出してもよい。
モーション検出部が、撮像部である場合を例にとり説明する。撮像部で撮影された画像(モーション検出情報)に基づき、プレーヤの所定の部位(例えば頭部)の動きを検出して、モーション入力情報を演算してもよい。すなわち撮影された画像に基づき頭部や顔の所定の部位(例えば目等)の位置や向きを検出して、これらに基づきモーション入力情報を求めてもよい。
またモーション検出部が顔検出機能や頭部検出機能を備えている場合には、モーション検出部が検出した顔位置情報や頭部位置情報を受け取りこれらに基づきモーション入力情報を求めてもよい。
図4(A)(B)は、携帯型ゲーム装置200(画像生成システムの一例)の、モーション入力の一例(プレーヤPの頭部の動きによる入力)を行っている様子を示している。また図5(A)(B)は、図4(A)(B)において、携帯型ゲーム機200の前面に設けられたカメラ(図3のカメラ220)により、撮影された画像を示している。
時刻t0において図4(A)の状態のプレーヤが、時刻t1において図4(B)のように頭部を向かって左側(プレーヤ自身の右側)に動かしている場合について説明する。
例えば頭部の動きを検出してモーション入力とする場合には、撮影画像310における頭部の所定点HPの位置の変化を検出してもよい。位置の変化は、例えばゲーム開始時やモーション入力モード移行時やプレーヤが所望の時に位置合わせを行い、基準位置の登録を行い、基準位置に対する変位を検出するようにしてもよい。
310−t0は時刻t0における撮影画像である。HP−t0(xt0、yt0)は、時刻t0におけるプレーヤの頭部の所定点の座標(画像内310−t0におけるローカル座標)でありこれを基準位置としてもよい。
310−t1は時刻t1における撮影画像である。時刻t1ではプレーヤが頭部を向かって左側(プレーヤ自身の右側)に動かしているので、撮影画像におけるプレーヤの頭部の所定点の座標はHP−t1(xt1、yt1)に変化している。
このようなプレーヤの頭部の所定点HPの位置の変化に基づき、モーション入力情報をもとめてもよい。
図6、図7は、プレーヤの頭部の動きと生成されるモーション入力情報の関係について説明するための図である。
プレーヤのモーションに基づきモーション入力情報を求める際には、モーション検出部が検出したモーション検出情報に基づき、プレーヤのモーションの所定方向の変位成分を抽出し、所定方向の変位成分に基づき前記モーション入力情報を求めてもよい。
例えばプレーヤの頭部のうごかしかたはふらふらとした振動を伴うものであった場合には、モーション検出情報として、図6の350に示すような曲線(プレーヤの頭部の所定点の軌跡)が検出される。本実施の形態では、時刻t0の所定点の位置HP−t0を始点とし、時刻t1における所定点の位置HP−t1を終点とする移動ベクトルVを生成し、ベクトルVから所定方向の変位成分を抽出する。
すなわち、頭部の所定点の時刻t0からt1における移動ベクトルVが得られるが、ゲームに反映させるのは水平方向の成分ベクトルVhだけでもよい。
例えばプレーヤの頭部の左右方向への動きに応じて、プレーヤキャラクタや仮想カメラの水平方向の位置を変化させる場合には、頭部の所定点の移動ベクトルV(所定時間あたりの変位ベクトル)から水平方向の成分を抽出して、水平方向の成分値に応じて仮想空間におけるキャラクタや仮想カメラの水平方向の変位をもとめてもよい。
この様にすると、プレーヤの動きの所定方向の変位成分に基づいてモーション入力制御を行うことができるので、プレーヤの複雑な動きから特徴的な動きを抽出してモーション入力制御を行うことができる。
図8(A)(B)、図9(A)〜(C)は、携帯型ゲーム装置200の筐体が傾いてる場合のモーション入力情報について説明するための図である。
例えば時刻t0において、プレーヤP1は図8(A)に示すように携帯型ゲーム装置200の筐体を傾けずにもっていたのが、時刻t1においてプレーヤP1が図8(B)に示すように携帯型ゲーム装置200の筐体を傾けてしまうことがある。図9(A)(B)は、図8(A)(B)において、携帯型ゲーム機200の前面に設けられたカメラ(図3のカメラ220)により、撮影された画像を示している。
時刻t1においてプレーヤPの頭部自体はうごいていないが、撮像部を有するゲーム装置200の筐体が傾いているため、時刻t0における撮影画像310’−t0と時刻t1における撮影画像310’−t1におけるプレーヤの頭部の所定点の位置は、HP’−t0からHP−t1に変化している。
この様な場合、携帯型ゲーム装置の筐体の動きは考慮せずに、撮影画像におけるプレーヤの頭部の所定点の変位に基づいて、モーション入力情報を生成してもよい。この様にすると、プレーヤの頭部の動き又は携帯型ゲーム装置の筐体の動きのいずれでもモーション入力を行うことができる。
また携帯型ゲーム装置200の筐体に対するプレーヤの頭部の相対的な変位によりモーション入力情報を生成してもよい。この様な場合、検出されたプレーヤの動きから携帯型ゲーム装置200の筐体の動きを相殺する処理を行う。例えば携帯型ゲーム装置200の筐体に設けられた筐体モーション勢検出部の検出結果に基づき、携帯型ゲーム装置200の筐体の基準位置に対する変化を求める。
図10は、携帯型ゲーム装置の筐体に対するプレーヤの頭部の相対的な変位について説明するための図である。図10において、時刻t0における携帯型ゲーム装置200の筐体の傾き(姿勢)を示すベクトルがKV−t0で、時刻t1における筐体の傾き(姿勢)を示すベクトルがKV−t1とすると、筐体の動きを示すベクトルは、時刻t0における筐体の傾き(姿勢)ベクトルKV−t0と時刻t1における筐体の傾き(姿勢)べクトルKV−t1の差分ベクトルSVとなる。なおベクトルKV−t0とベクトルKV−t1は、3軸方向の成分を有していてもよいし、いずれかの1軸又は2軸方向の成分を有するベクトルでもよい。
また時刻t0における撮影画像310’−t0における頭部の所定点の位置HP’−t0(画像内のローカル座標系における位置)と時刻t1における頭部の所定点の位置HP’−t1(撮影画像310’−t1内のローカル座標系における位置)との変位HVを、差分ベクトルで相殺した場合の変位に基づきモーション入力情報をもとめればよい。
このようにすると、携帯型ゲーム装置200の筐体のみ動いてプレーヤの頭部が動いていない場合には、プレーヤのモーション入力はないものとして取り扱うことができる。
(3)モーション入力有効モード
本実施の形態では、操作部から入力されたモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに切り替え、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行う。
ここで、モーション入力有効設定指示入力は、操作部に設けられたモーション入力有効設定指示入力ボタン等を押すことで行うようにしてもよい。
図11(A)(B)は、モーション入力有効設定指示入力ボタンの押下とモーション入力有効モードの関係を示す図である。横軸は時間軸であり、縦軸はモーション入力有効設定指示入力ボタンのON/OFFの状態を示している。
図11(A)は、プレーヤがモーション入力を行う場合には、モーション入力有効設定指示入力ボタンを押下し続ける仕様の場合のグラフである。図11(A)では、時刻t0から時刻t1の期間K1ではモーション入力有効設定指示入力ボタンはOFF(プレーヤはモーション入力有効設定指示入力ボタンを押していない)であり、時刻t1から時刻t2の期間K2ではモーション入力有効設定指示入力ボタンはON(プレーヤはモーション入力有効設定指示入力ボタンを押下中である)であり、時刻t2から時刻t3の期間K3ではモーション入力有効設定指示入力ボタンはOFF(プレーヤはモーション入力有効設定指示入力ボタンを押していない)であり、時刻t3から時刻t4の期間K4ではモーション入力有効設定指示入力ボタンはON(プレーヤはモーション入力有効設定指示入力ボタンを押下中である)となっている。
従って、期間K2、K4の間、モーション入力有効モードに設定され、この期間は、モーション入力情報に基づきモーション入力制御が行われる。また期間K1、K3の間はモーション入力有効モード以外のモード(例えば通常入力モード)に設定され、モーション入力情報に基づくモーション入力制御は行われない。モーション入力有効モード以外のモードにおいては、例えばモーション検出部がモーションの検出を行わないようにしてもよいし、モーション検出部はモーションの検出を行うが、モーション入力情報を生成しないようにしてもよい。またモーション入力情報を生成しても、モーション入力情報によるモーション入力制御を行わないようにしてもよい。
図11(B)は、プレーヤがモーション入力を行う場合には、その開始と終了のタイミングでモーション入力有効設定指示入力ボタンを押下する仕様又はモーション入力有効設定指示入力ボタンによって、通常モードとモーション入力有効モードの切り替えを行う仕様の場合のグラフである。図11(B)では、時刻t’0からt’1の期間K’1の間は通常モードであり、時刻t’1においてモーション入力有効設定指示入力ボタンが押されることにより、通常モードからモーション入力有効モードに切り替わる。そして時刻t’1から次にモーション入力押下ボタンが押される時刻t’2までの期間K’2の間がモーション入力有効モードになる。時刻t’2においてモーション入力有効設定指示入力ボタンが押されることにより、モーション入力有効モードから通常モードに切り替わる。そして時刻t’2から次にモーション入力押下ボタンが押される時刻t’3までの期間K’2の間が通常モードになる。時刻t’3においてモーション入力有効設定指示入力ボタンが押されることにより、通常モードからモーション入力有効モードに切り替わる。そして時刻t’3から次にモーション入力押下ボタンが押される時刻t’4までの期間K’4の間がモーション入力有効モードになる。
(4)モーション入力制御
モーション入力制御においては、モーション入力情報をプレーヤキャラクタの移動動作制御及び仮想カメラの制御の両方に作用させてもよいし、いずれか一方に作用させてもよい。
そしてプレーヤは操作部に設けられた、モーション入力有効設定指示入力ボタン(第3の操作部位)を操作しながら、頭部をうごかすことにより、プレーヤキャラクタのモーションと視点を変更することができる。
図13は、モーション入力情報に基づくプレーヤキャラクタの動作制御の一例について説明するための図である。
図13の500は、基準状態おけるプレーヤキャラクタの姿勢(直立している状態)を示しており、510は、モーション入力有効モードにおいて、プレーヤが頭を左方向にうごかすモーションを行った場合のプレーヤキャラクタの動作を示している。プレーヤのモーションを反映してプレーヤキャラクタも右に傾く(図面上は左に傾く)動作を行う。
500と510の仮想空間(ワールド座標系)におけるプレーヤキャラクタの位置(プレーヤキャラクタの代表点KPの位置)は、変わらずモーションデータだけを変更させる制御を行ってもよい。また基準状態における、仮想空間(ワールド座標系)におけるプレーヤキャラクタの位置KPをモーション入力情報(例えば左方向の変位成分)に応じて距離lだけ基準位置KPから移動させる制御をおこなってもよい。
なおモーション入力情報(例えば左方向の変位成分)に応じて基準位置KPから移動させる距離l(パラメータの変動幅の一例)に上限を設け、上限を超えない範囲で変化させる制御を行ってもよい。
図15は、モーション入力情報に基づくプレーヤの基準位置からの移動距離の制御の一例について説明するためのグラフである。
横軸はプレーヤの頭部の横方向の変位x(モーション入力情報)であり、縦軸はモーション入力情報による基準位置から変位lを示している。変位lに上限値Lを設定し、上限値Lに達するまでは、変位lはプレーヤの頭部の横方向の変位xに比例して増加し、上限値Lに達した後は、プレーヤの頭部の横方向の変位xが増加しても、変位lは上限値Lに固定するようにしてもよい。
このようにすると、仮想空間内のプレーヤキャラクタは基準位置から所定の範囲内で動くので、通常の移動入力と合わせてもちいやすい。
図14はモーション入力情報による仮想カメラの制御の一例について説明する図である。
図14に示すようにプレーヤキャラクタが物陰470に隠れている状態460では、仮想カメラ490の位置KP−hは、敵を見えやすくするために、隠れ状態のプレーヤキャラクタの位置TPとは別に持つことがこのましい。なお通常状態では仮想カメラ490の位置KP−hはプレーヤキャラクタの位置と同じでもよいし、一定間隔話して追従させてもよい。
プレーヤキャラクタが物陰470に隠れている状態460の仮想カメラ480の位置KP−hは、プレーヤキャラクタの位置(基準位置)TPからの差分l1であたえてもよい。例えばプレーヤキャラクタCPの位置(戦闘ポイント)を原点とするローカル座標系における座標値であたえてもよい。
そしてプレーヤが頭を左方向にうごかすモーションを行うと、仮想空間のプレーヤキャラクタは、物陰から敵を攻撃する状態462になる。このとき仮想カメラ480の位置KP−aは、プレーヤキャラクタの位置(基準位置)からの差分l2であたえてもよい。例えばプレーヤキャラクタCPの位置(戦闘ポイント)TPを原点とするローカル座標系における座標値であたえてもよい。
この様にモーション入力情報に基づき、プレーヤキャラクタのモーションと仮想カメラの位置を変化させてもよい。
(5)携帯型でない画像生成システムの構成例
図16は、携帯型でない画像生成システムの概略外観図であり、コントローラにモーション検出部を有している場合の例を示す図である。
画像生成システムは、ゲーム画像を表示させる表示部360と、画図生成処理(ゲーム処理)等を行う画像生成装置350(ゲーム機本体)と、プレーヤPが両手に把持して位置、向きを任意に変更可能なコントローラ770とを含む。画像生成装置350とコントローラ370との間では無線通信により種々の情報を送受信する。
コントローラ370には、十字キーやボタン等が設けられ、コントローラの傾きや動きに応じて変化する情報を検出する物理センサとして加速度センサ(図示せず)を内蔵している。
加速度センサは、3軸加速度センサとして形成され、3軸それぞれの加速度ベクトルを検出してもよい。すなわち加速度センサ、コントローラにかかる3軸それぞれについて、一定時間における速度及び向きの変化を、加速度ベクトルとして検出する。
例えば、図16に示すように、プレーヤPがコントローラ370を把持しながらコントローラを動かすと、コントローラ370自体の傾き、動きを変化することになる。そして、コントローラ370は、傾き、動きに応じて変化する加速度ベクトルを検出して、画像生成装置350に加速度ベクトルを無線送信し、画像生成装置350では、コントローラ370自体の加速度ベクトルに基づいて、所与の処理を行う。
また、コントローラ370には、モーション検出部として機能する撮像部372がもうけられている。撮像部372で撮影された画像に基づき、プレーヤのモーションが検出され、図4〜図10で説明したように、モーション入力情報が生成される。
この様にコントローラ370側にモーション検出部が設けられている構成でも実現可能である。この携帯では表示部としては大画面を用いることが可能であるため、プレーヤは自己のモーション入力が反映される画像を迫力ある大画面で楽しむことができる。
図17は、携帯型でない画像生成システムの概略外観図であり、モーション検出部が表示部の側に設置されている場合の例を示す図である。
画像生成システムは、ゲーム画像を表示させる表示部360と、画図生成処理(ゲーム処理)等を行う画像生成装置350(ゲーム機本体)と、プレーヤPが両手に把持して位置、向きを任意に変更可能なコントローラ770とを含むのは図16と同様であるが、モーション検出部として機能する撮像部380はコントローラとは別個の装置として、表示部360の側に設置されている。この様な構成も本発明の範囲内である。
4.本実施の形態の処理
図18は、入力モードの切り替え処理の流れを示すフローチャートである。
ここでは、図11(A)に示す仕様(モーション入力を行う間、ボタン等を押し続けてモーション入力有効設定指示入力を行う仕様)で、プレーヤが入力モードを切り替える場合を例にとり説明する。デフォルト状態では、通常モード(モーション入力を有効にしないモード)が設定されている。
操作部からモーション入力有効モード設定指示入力あると(ステップS10)、入力モードをモーション入力有効モードに設定する(ステップS20)。そしてモーション入力有効モード設定指示入力の終了を検出したら(ステップS30)、入力モードを通常入力モードに設定する(ステップS40)。
図19は、入力モード制御処理の流れを示すフローチャートである。
モーション入力有効モードである場合には(ステップS110)、以下のステップS120〜S150処理を行う。まず、モーション検出情報に基づき、モーション入力情報を演算し(ステップS120)、モーション入力情報に対応したプレーヤキャラクタ及び仮想カメラの少なくとも一方の制御パラメータの変位(モーション入力による変位)を演算する(ステップS130)。また、操作部からのプレーヤキャラクタの入力情報に対応したプレーヤキャラクタ及び仮想カメラの動動作に関する制御パラメータの変位(操作入力による変位)に所定の制限を加える補正を行い、操作入力による変位の補正値を演算する。(ステップS140)。そして、モーション入力による変位及び操作入力による変位の補正値に基づきプレーヤキャラクタ及び仮想カメラの少なくとも一方のパラメータの値の設定を行う(ステップS150)。
モーション入力有効モードでない(例えば通常モードである)ある場合には(ステップS110)、操作部からのプレーヤキャラクタの入力情報に対応したプレーヤキャラクタ及び仮想カメラの動動作に関する制御パラメータの変位(操作入力による変位)を演算し(ステップS160)、操作入力による変位に基づきプレーヤキャラクタ及び仮想カメラの少なくとも一方のパラメータの値の設定を行う(ステップS170)。
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
例えば、前記モーション入力有効モードの間は、プレーヤキャラクタに関連するヒットチェックの命中率及びダメージ量の少なくとも一方を変化させるようにしてもよい。
モーション入力有効モードの間は、プレーヤキャラクタに関連するヒットチェックの命中率及びダメージ量の少なくとも一方に関するパラメータの設定を変更することにより、ヒットによりプレーヤキャラクタへの命中率やプレーヤキャラクタが受けるダメージ量を変化させてもよいし、ヒットによりプレーヤキャラクタの相手への命中率やプレーヤキャラクタが相手に与えるダメージ量を変化させてもよい。
ヒットチェックとはシューティングによるヒットチェックでもよいし、例えば格闘等におけるキックやパンチや剣攻撃でもよいし、衝突判定等のヒットチェックでもよい。
またプレーヤキャラクタに関連するヒットチェックとは、プレーヤキャラクタが攻撃する場合や攻撃される場合のいずれ場合に関するによるヒットチェックでもよい。
前記モーション入力有効モードの間は、プレーヤキャラクタに関連するヒットチェックの命中率をあげて、プレーヤキャラクタに命中しやすくしたり、プレーヤキャラクタの攻撃が命中しやすくしたりしてもよい。
モーション入力有効モードの間は、プレーヤキャラクタに関連するヒット時のダメージ量をあげてプレーヤキャラクタがダメージを受けやすくしたり、プレーヤキャラクタの攻撃により相手に与えるダメージ量をあげて相手がダメージを受けやすくしてもよい。
例えばプレーヤキャラクタが物陰に隠れている状態において、プレーヤがモーション入力を行ことにより仮想空間のプレーヤキャラクタが物陰から顔を出す仕様においては、モーション入力中であるモーション入力有効モード(物陰から顔を出している状態)において、プレーヤキャラクタに弾がヒットしやすくしたり、プレーヤキャラクタが受けるダメージ量を上げたりすることで、リアリティに富んだ迫力あるゲームを提供することができる。
上記実施の形態では、ゲーム装置が撮影装置である場合を例にとり説明したがこれに限られない。例えばゲーム装置は、業務用ゲームシステム、家庭用ゲームシステム、携帯型ゲームシステム等のいずれのタイプでも構成可能であり、ゲームの種類もシューティングゲームやレースゲームやロールプレイングゲームやパズルゲーム等の種々のゲームシステムに適用できる。
100 処理部、110 オブジェクト空間設定部、111 仮想カメラ制御部、112 モーション入力情報演算部、113 モーション入力制御部、114 移動・動作演算部、115 ゲーム演算部、120 画像生成部、130 音処理部、140 筐体モーション検出部、150 撮像部、160 入力部、162 検出部、180 情報記憶媒体、190 表示部、170 記憶部、172 主記憶部、
192 音出力部、196 通信部

Claims (15)

  1. プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段と、
    操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段と、
    仮想空間を仮想カメラから見た画像を生成する画像生成手段と、を含む画像生成システム。
  2. 請求項1において、
    生成された画像を表示する表示部と、
    前記モーション検出部と、
    前記モーション入力有効モード設定指示入力を含む操作入力が行われる操作部と、
    が携帯型の筐体に一体的に形成された画像生成システム。
  3. 請求項2において、
    前記モーション入力情報演算手段は、
    生成された画像が表示される表示部を含む前記筐体の動きを検出する筐体モーション検出部が検出した前記筺体モーション情報と、前記モーション検出情報に基づき、前記モーション入力情報を求める画像生成システム。
  4. 請求項2に従属する請求項3において、
    前記筐体モーション検出部を含む画像生成システム。
  5. 請求項1乃至4のいずれかにおいて、
    前記モーション入力制御手段は、
    前記モーション入力情報に基づき行うプレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方による所与のパラメータの変動幅に上限を設定し、パラメータの変動幅が設定された上限を超えない範囲で変化させる制御を行う画像生成システム。
  6. 請求項1乃至5のいずれかにおいて、
    操作部からの入力情報に基づき、プレーヤキャラクタの移動動作演算を行う移動動作演算手段をさらに含み、
    前記移動動作演算手段は、
    前記モーション入力有効モードの間は、操作部からの入力情報によるプレーヤキャラクタの移動動作に所定の制限を加える画像生成システム。
  7. 請求項1乃至6のいずれかにおいて、
    操作部からの入力情報に基づき、ヒットチェックを行うゲーム演算手段をさらに含み、
    前記ゲーム演算手段は、
    前記モーション入力有効モードの間は、プレーヤキャラクタに関連するヒットチェックの命中率及びダメージ量の少なくとも一方を変化させる画像生成システム。
  8. 請求項1乃至7のいずれかにおいて、
    前記モーション入力情報演算手段は、
    前記モーション検出部が検出したモーション検出情報に基づき、プレーヤのモーションの所定方向の変位成分を抽出し、所定方向の変位成分に基づき前記モーション入力情報を求める画像生成システム。
  9. 請求項1乃至8のいずれかにおいて、
    前記モーション入力制御手段は、
    前記プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方を行う際に、所与のパラメータの変化の起点となる基準位置を設定し、前記モーション入力情報に基づき前記基準位置からの変位を求め、求めた変位に応じて前記基準位置から所与のパラメータを変化させる制御を行う画像生成システム。
  10. 請求項1乃至9のいずれかにおいて、
    前記モーション入力情報演算手段は、
    モーション検出部が検出したモーション検出情報に基づき、前記プレーヤの所定の部位の位置が所定の範囲外に移動したと判断した場合には、所定の部位の位置が上限を超えたことを示すモーション入力情報を生成し、
    前記モーション入力制御手段は、
    前記モーション入力情報が、所定の部位の位置が上限を超えたことを示している場合には、前記プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方を行う際に、予め設定されている上限変位を示すモーション入力が行われたものとして制御を行う画像生成システム。
  11. 請求項1乃至10のいずれかにおいて、
    生成された画像を表示する表示部を備える本体と、
    前記モーション検出部と、前記入力モード設定指示が入力される操作部とを備えるコントローラを含む画像生成システム。
  12. 請求項2又は2に従属する3乃至11のいずれかにおいて、
    前記表示部は本体の表面に設けられ、
    前記本体の背面に設けられたタッチスクリーンが携帯型の筐体に一体的に形成された画像生成システム。
  13. プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段と、
    操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段と、
    仮想空間を仮想カメラから見た画像を生成する画像生成手段と、を含むサーバシステム。
  14. プレーヤのモーションを検出するモーション検出部が検出したモーション検出情報に基づき、画像生成に用いるモーション入力情報を演算するモーション入力情報演算手段と、
    操作部からのモーション入力有効設定指示入力に基づき、入力モードをモーション入力有効モードに設定し、モーション入力有効モードの間は、モーション入力情報を、プレーヤキャラクタの移動動作制御及び仮想カメラの制御の少なくとも一方に作用させるモーション入力制御を行うモーション入力制御手段と、
    仮想空間を仮想カメラから見た画像を生成する画像生成手段と、してコンピュータを機能させるプログラム。
  15. 請求項14に記載のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
JP2011076493A 2011-03-30 2011-03-30 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 Withdrawn JP2012212237A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076493A JP2012212237A (ja) 2011-03-30 2011-03-30 画像生成システム、サーバシステム、プログラム及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076493A JP2012212237A (ja) 2011-03-30 2011-03-30 画像生成システム、サーバシステム、プログラム及び情報記憶媒体

Publications (1)

Publication Number Publication Date
JP2012212237A true JP2012212237A (ja) 2012-11-01

Family

ID=47266147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076493A Withdrawn JP2012212237A (ja) 2011-03-30 2011-03-30 画像生成システム、サーバシステム、プログラム及び情報記憶媒体

Country Status (1)

Country Link
JP (1) JP2012212237A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238711A (ja) * 2013-06-07 2014-12-18 島根県 カーナビ用ジェスチャ入力装置
JP2015014995A (ja) * 2013-07-08 2015-01-22 桑原 雅人 表示装置、表示方法、プログラム及び表示システム
JP2015139495A (ja) * 2014-01-27 2015-08-03 株式会社スクウェア・エニックス ビデオゲーム処理プログラム及びビデオゲーム処理システム
JP2016118868A (ja) * 2014-12-19 2016-06-30 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP2016534421A (ja) * 2013-10-14 2016-11-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ジェスチャ制御デバイス、方法、システム及び格納媒体
JP2017055851A (ja) * 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
WO2017051570A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017051721A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017532642A (ja) * 2014-08-29 2017-11-02 任天堂株式会社 摂動因子存在下で入力の値を推定する方法及び装置
JP2018196841A (ja) * 2018-09-25 2018-12-13 株式会社スクウェア・エニックス ビデオゲーム処理プログラム及びビデオゲーム処理システム
JP2019005654A (ja) * 2018-10-22 2019-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2019128947A (ja) * 2018-11-20 2019-08-01 株式会社コロプラ プログラム、情報処理装置、および方法
CN110750161A (zh) * 2019-10-25 2020-02-04 郑子龙 一种交互系统、方法、移动设备及计算机可读介质
JP2021000387A (ja) * 2019-06-24 2021-01-07 株式会社コロプラ ゲームプログラム、ゲーム方法、および端末装置
JP2021058747A (ja) * 2019-06-24 2021-04-15 株式会社コロプラ ゲームプログラム、ゲーム方法、および端末装置
JPWO2021112161A1 (ja) * 2019-12-03 2021-06-10
JP2022095526A (ja) * 2020-12-16 2022-06-28 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
CN116543082A (zh) * 2023-05-18 2023-08-04 无锡捷通数智科技有限公司 数字人的生成方法、装置和数字人的生成系统

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9662980B2 (en) 2013-06-07 2017-05-30 Shimane Prefectural Government Gesture input apparatus for car navigation system
CN105264463A (zh) * 2013-06-07 2016-01-20 岛根县 用于汽车导航仪的手势输入装置
JP2014238711A (ja) * 2013-06-07 2014-12-18 島根県 カーナビ用ジェスチャ入力装置
JP2015014995A (ja) * 2013-07-08 2015-01-22 桑原 雅人 表示装置、表示方法、プログラム及び表示システム
JP2016534421A (ja) * 2013-10-14 2016-11-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ジェスチャ制御デバイス、方法、システム及び格納媒体
JP2015139495A (ja) * 2014-01-27 2015-08-03 株式会社スクウェア・エニックス ビデオゲーム処理プログラム及びビデオゲーム処理システム
JP2017532642A (ja) * 2014-08-29 2017-11-02 任天堂株式会社 摂動因子存在下で入力の値を推定する方法及び装置
JP2016118868A (ja) * 2014-12-19 2016-06-30 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP2017055851A (ja) * 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
US10029176B2 (en) 2015-09-14 2018-07-24 Koei Tecmo Games Co., Ltd. Data processing apparatus and method of controlling display
WO2017051570A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017051721A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10855925B2 (en) 2015-09-24 2020-12-01 Sony Corporation Information processing device, information processing method, and program
JP2018196841A (ja) * 2018-09-25 2018-12-13 株式会社スクウェア・エニックス ビデオゲーム処理プログラム及びビデオゲーム処理システム
JP2019005654A (ja) * 2018-10-22 2019-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2019128947A (ja) * 2018-11-20 2019-08-01 株式会社コロプラ プログラム、情報処理装置、および方法
JP7233202B2 (ja) 2018-11-20 2023-03-06 株式会社コロプラ プログラム、情報処理装置、および方法
JP2021000387A (ja) * 2019-06-24 2021-01-07 株式会社コロプラ ゲームプログラム、ゲーム方法、および端末装置
JP2021058747A (ja) * 2019-06-24 2021-04-15 株式会社コロプラ ゲームプログラム、ゲーム方法、および端末装置
JP7361736B2 (ja) 2019-06-24 2023-10-16 株式会社コロプラ ゲームプログラム、ゲーム方法、および端末装置
CN110750161A (zh) * 2019-10-25 2020-02-04 郑子龙 一种交互系统、方法、移动设备及计算机可读介质
JPWO2021112161A1 (ja) * 2019-12-03 2021-06-10
JP7428189B2 (ja) 2019-12-03 2024-02-06 日本電気株式会社 情報処理装置、制御方法及び制御プログラム
JP2022095526A (ja) * 2020-12-16 2022-06-28 株式会社あかつき ゲームシステム、プログラム及び情報処理方法
CN116543082A (zh) * 2023-05-18 2023-08-04 无锡捷通数智科技有限公司 数字人的生成方法、装置和数字人的生成系统

Similar Documents

Publication Publication Date Title
JP2012212237A (ja) 画像生成システム、サーバシステム、プログラム及び情報記憶媒体
EP2371433B1 (en) Image generation device, program product, and image generation method
JP5300777B2 (ja) プログラム及び画像生成システム
US8535154B2 (en) Information storage medium and image generation device
JP5390115B2 (ja) プログラム、ゲームシステム
US9789401B2 (en) Game device, game system, and information storage medium
US9652063B2 (en) Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method
US10525337B2 (en) Terminal device
US8520901B2 (en) Image generation system, image generation method, and information storage medium
JP4917664B1 (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
US9345972B2 (en) Information storage medium, image generation system, and image generation method
JP5474919B2 (ja) ゲームシステム、ゲームシステムの制御方法、及びプログラム
JP5520443B2 (ja) プログラム、情報記憶媒体及びゲームシステム
JP2011215886A (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP2011053838A (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP2019152899A (ja) シミュレーションシステム及びプログラム
JP2023115237A (ja) ゲームシステム、プログラム及びゲーム提供方法
JP2012215934A (ja) プログラム、情報記憶媒体、端末、及びサーバ
JP2012106005A (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
JP2006268511A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2020039403A (ja) プログラム、ゲームシステム及びサーバシステム
JP2008067853A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2006268818A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP6931723B2 (ja) ゲーム機、ゲームシステム及びプログラム
JP2014061039A (ja) プログラム、情報記憶媒体、ゲーム装置及びサーバ装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603