JP2012249978A - プログラム、情報記憶媒体、ゲーム装置及びサーバシステム - Google Patents
プログラム、情報記憶媒体、ゲーム装置及びサーバシステム Download PDFInfo
- Publication number
- JP2012249978A JP2012249978A JP2011126789A JP2011126789A JP2012249978A JP 2012249978 A JP2012249978 A JP 2012249978A JP 2011126789 A JP2011126789 A JP 2011126789A JP 2011126789 A JP2011126789 A JP 2011126789A JP 2012249978 A JP2012249978 A JP 2012249978A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- program
- image
- finger
- contact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
【課題】タッチパッドの接触位置から推定したプレーヤの指の形状に応じてその位置と形状が変化するオブジェクトを用いてゲームを進行させることが可能なプログラム、情報記憶媒体、ゲーム装置及びサーバシステムを提供すること。
【解決手段】プレーヤの指先による接触入力を検出するためのタッチパッドを有するゲーム装置のためのプログラムであって、前記タッチパッドによって検出された接触位置に基づいて、プレーヤの指の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、オブジェクト空間内の所与の視点から見える画像を生成する画像生成部としてコンピュータを機能させる。
【選択図】図11
【解決手段】プレーヤの指先による接触入力を検出するためのタッチパッドを有するゲーム装置のためのプログラムであって、前記タッチパッドによって検出された接触位置に基づいて、プレーヤの指の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、オブジェクト空間内の所与の視点から見える画像を生成する画像生成部としてコンピュータを機能させる。
【選択図】図11
Description
本発明は、プログラム、情報記憶媒体、ゲーム装置及びサーバシステムに関する。
従来から、本体ケースの表面に配置された表示装置と、本体ケースの裏面に配置されたタッチパッドとを備えた電子機器が知られている(例えば、特許文献1)。
しかしながら、従来の電子機器では、タッチパッドで検出されたタッチ位置によって表示装置に表示されるカーソルの表示位置を決定するものはあったものの、タッチ位置に基づきオブジェクトの位置及び形状を変化させてゲームを進行させるようなものは存在しなかった。
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、タッチパッドの接触位置に応じてその位置と形状が変化するオブジェクトを用いてゲームを進行させることが可能なプログラム、情報記憶媒体、ゲーム装置及びサーバシステムを提供することにある。
(1)本発明に係るプログラムは、
接触入力を検出するためのタッチパッドを有するゲーム装置のためのプログラムであって、
前記タッチパッドによって検出された接触位置に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、
前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、
オブジェクト空間内の所与の視点から見える画像を生成する画像生成部としてコンピュータを機能させることを特徴とするプログラムに関する。
接触入力を検出するためのタッチパッドを有するゲーム装置のためのプログラムであって、
前記タッチパッドによって検出された接触位置に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、
前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、
オブジェクト空間内の所与の視点から見える画像を生成する画像生成部としてコンピュータを機能させることを特徴とするプログラムに関する。
また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。また本発明は、上記各部を含むゲーム装置に関する。また本発明は、上記各部を含むサーバシステムに関する。
本発明において、検出された接触位置に基づき位置及び形状が決定される前記オブジェクトを含む前記画像を生成してもよいし、前記オブジェクトに基づきゲーム処理(接触判定等)のみを行って、前記オブジェクトを描画しなくてもよい。
本発明によれば、タッチパッドの接触位置に基づきオブジェクトの位置及び形状を変化させてゲームを進行させることが可能なプログラム、情報記憶媒体、ゲーム装置及びサーバシステムを提供することができる。
(2)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記タッチパッドに接触するプレーヤの指の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置してもよい。
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記タッチパッドに接触するプレーヤの指の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置してもよい。
本発明によれば、タッチパッドの接触位置から推定したプレーヤの指の形状に基づきオブジェクトの位置及び形状を変化させてゲームを進行させることが可能なプログラム、情報記憶媒体、ゲーム装置及びサーバシステムを提供することができる。
(3)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記ゲーム装置は、プレーヤが手で把持可能な筐体と、前記筐体の前面に設けられた表示部と、前記筐体の背面に設けられ、前記筐体を把持する手の指先で接触入力可能な前記タッチパッドとを有し、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記筐体を把持する手の指の形状を推定してもよい。
前記ゲーム装置は、プレーヤが手で把持可能な筐体と、前記筐体の前面に設けられた表示部と、前記筐体の背面に設けられ、前記筐体を把持する手の指先で接触入力可能な前記タッチパッドとを有し、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記筐体を把持する手の指の形状を推定してもよい。
本発明によれば、プレーヤが手で把持可能な筐体の背面に設けられたタッチパッドで検出された接触位置に基づき、筐体を把持するプレーヤの指の形状を推定することで、プレーヤの指の形状を容易に推定することができる。
(4)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記オブジェクトのスケルトンを構成する関節の位置及び角度を決定してもよい。
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記オブジェクトのスケルトンを構成する関節の位置及び角度を決定してもよい。
本発明によれば、プレーヤの指形状の推定と推定結果に基づくオブジェクトの変形を容易に行うことができる。
(5)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記スケルトンの端部の位置を決定し、前記スケルトンの端部の位置に基づき前記スケルトンを構成する関節の位置及び角度をインバースキネマティクスにより決定してもよい。
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記スケルトンの端部の位置を決定し、前記スケルトンの端部の位置に基づき前記スケルトンを構成する関節の位置及び角度をインバースキネマティクスにより決定してもよい。
本発明によれば、プレーヤの指形状の推定と推定結果に基づくオブジェクトの変形を容易に行うことができる。
(6)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記オブジェクトのスケルトンは、人体の指の関節構造をモデル化したものでもよい。
前記オブジェクトのスケルトンは、人体の指の関節構造をモデル化したものでもよい。
本発明によれば、プレーヤの指の関節とオブジェクトのスケルトンの関節とを対応付けて、プレーヤの指形状の推定を容易に行うことができる。
(7)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記ゲーム処理部が、
前記オブジェクトの位置及び形状に基づき前記オブジェクトとオブジェクト空間内の他のオブジェクトとの接触判定を行い、接触判定の結果に基づいて、前記他のオブジェクトのオブジェクト空間における移動制御を行ってもよい。
前記ゲーム処理部が、
前記オブジェクトの位置及び形状に基づき前記オブジェクトとオブジェクト空間内の他のオブジェクトとの接触判定を行い、接触判定の結果に基づいて、前記他のオブジェクトのオブジェクト空間における移動制御を行ってもよい。
本発明によれば、検出された接触位置或いはプレーヤの指の推定結果に基づきオブジェクトの位置及び形状を変化させて、他のオブジェクトを移動させるようなゲームを実現することができる。
(8)また本発明に係るプログラム、情報記憶媒体、ゲーム装置及びサーバシステムでは、
前記画像生成部が、
前記オブジェクトを含む前記画像を生成してもよい。
前記画像生成部が、
前記オブジェクトを含む前記画像を生成してもよい。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.機能ブロック図
図1に本実施形態のゲーム装置(ゲームシステム)の機能ブロック図の一例を示す。なお本実施形態のゲーム装置は図1の構成要素(各部)の一部を省略した構成としてもよい。
図1に本実施形態のゲーム装置(ゲームシステム)の機能ブロック図の一例を示す。なお本実施形態のゲーム装置は図1の構成要素(各部)の一部を省略した構成としてもよい。
操作部160は、プレーヤが操作情報(操作データ)を入力するためのものであり、ユーザの操作情報を処理部100に出力する。操作部160の機能は、ボタン、方向キー(十字キー)、方向入力可能なコントロールスティック(アナログキー)、レバー、キーボード、マウス、タッチパネル型ディスプレイ、加速度センサや傾きセンサ等を内蔵するコントローラなどのハードウェアにより実現することができる。操作部160は、タッチパッド162を含む。
タッチパッド162は、ユーザによる接触入力を検出するためのものであり、接触位置の座標値を連続的に検出し、処理部100に出力する。タッチパッド方式としては、静電容量結合方式、抵抗膜方式(4線式、5線式)、超音波表面弾性波方式、赤外線走査方式などがある。タッチパッド162は、表示部190とは異なる位置に配置されていてもよいし、表示部190に内蔵され、表示部190とともにタッチパネルディスプレイを構成してもよい。タッチパッド162への接触操作(タッチ操作)は、指先を用いて行ってもよいし、タッチペンなどの入力機器を用いて行ってもよい。
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶されるフレームバッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の処理部100の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。
表示部190は、本実施形態により生成された画像(オブジェクト空間を所与の視点から見た画像)を出力するものであり、その機能は、LCDなどにより実現できる。
なお表示部190は、立体視画像を表示するようにしてもよい。例えば、裸眼方式では、表示部190は、有限個の画素からなるLCDの前面又は背面に、パララックスバリアやレンチキュラ等の光学素子が配置される。例えば、垂直バリアまたは垂直レンチキュラによる2眼式の場合には、表示部190に、1枚(1フレーム)の左眼用画像を表示するための表示領域と、1枚の右眼用画像を表示するための表示領域とが、短冊状に左眼用短冊画像表示領域及び右眼用短冊画像表示領域として交互に配置されている。パララックスバリアが配置される場合、その隙間からは、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、レンチキュラが配置される場合、各短冊集合画像に対応したレンズの光屈折効果により、プレーヤの左眼には左眼用短冊画像表示領域に表示される左眼用短冊画像、右眼には右眼用短冊画像表示領域に表示される右眼用短冊画像のみが見えるようになっている。また、偏光眼鏡方式では、表示部190の奇数ラインと偶数ラインに偏光方向の異なる偏光フィルタ(例えば、左円偏光を透過する偏光フィルタと、右円偏光を透過する偏光フィルタ)が交互に配置され、表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば、左眼に左円偏光を透過する偏光フィルタ、右眼に右円偏光を透過する偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。また、ページフリップ方式では、表示部190に左眼用画像と右眼用画像を所定時間毎(例えば、1/120秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。
通信部196は他のゲーム装置やサーバとの間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の処理部100の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信してゲーム装置を機能させる場合も本発明の範囲内に含む。
処理部100(プロセッサ)は、操作部160からの操作データ(タッチパッド162からの検出信号(接触位置の座標値)を含む)、通信部196を介して受信したデータやプログラムなどに基づいて、ゲーム処理、画像生成処理、音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
処理部100は、オブジェクト空間設定部110、オブジェクト制御部112、ゲーム処理部114、仮想カメラ制御部118、画像生成部120、音生成部130を含む。
オブジェクト空間設定部110は、表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。
オブジェクト制御部112は、タッチパッド162によって検出された接触位置に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置する。例えば、オブジェクト制御部112は、タッチパッド162によって検出された接触位置に基づいて、タッチパッド162に接触するプレーヤの指の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置する。なお、タッチパッド162によって検出された接触位置に基づいて、タッチパッド162に接触するタッチペン等の形状を推定し、推定結果に基づき前記オブジェクトの位置及び形状を決定してもよい。
また、タッチパッド162が、ゲーム装置の筐体の背面であって、前記筐体を把持する手の指先で接触入力可能な位置に設けられている場合には、オブジェクト制御部112は、タッチパッド162によって検出された接触位置に基づいて、ゲーム装置の筐体を把持する手の指の形状を推定してもよい。
また、オブジェクト制御部112は、タッチパッド162によって検出された接触位置に基づいて、前記オブジェクト(前記推定結果に基づき位置及び形状が決定されるオブジェクト)のスケルトンを構成する関節の位置及び角度を決定することで、前記オブジェクトの位置及び形状を決定してもよい。
また、オブジェクト制御部112は、タッチパッド162によって検出された接触位置に基づいて、前記スケルトンの端部の位置を決定し、前記スケルトンの端部の位置に基づいて、前記スケルトンを構成する関節の位置及び角度をインバースキネマティクス(IK:Inverse Kinematics)により決定してもよい。ここで、前記オブジェクトのスケルトンは、人体の指の関節構造をモデル化したものであってもよい。
ゲーム処理部114は、オブジェクト制御部112によって決定された前記オブジェクトの位置及び形状に基づきゲーム処理を行う。また、ゲーム処理部114は、前記オブジェクトの位置及び形状に基づき前記オブジェクトとオブジェクト空間内の他のオブジェクトとの接触判定(ヒットチェック、衝突判定)を行い、接触判定の結果に基づいて、前記他のオブジェクトのオブジェクト空間における移動制御を行ってもよい。例えば、前記オブジェクトの位置及び形状に基づき前記オブジェクトの接触判定領域(ヒットエリア)を設定し、設定した接触判定領域に基づき他のオブジェクトとの接触判定を行ってもよい。また、ゲーム処理部114は、前記オブジェクトの位置及び形状に基づいて、画像生成部120で生成されるゲーム画像(オブジェクト空間内の所与の視点から見える画像)を変化させるための表示制御を行うようにしてもよい。例えば、前記ゲーム画像において、前記オブジェクトの位置及び形状に変化による前記オブジェクトの移動領域に対応する領域の色を変化させるための表示制御を行ってもよい。
仮想カメラ制御部118(視点制御部)は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データ或いはプログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は光軸の方向(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度等)を制御する処理を行う。要するに、視点位置、仮想カメラの向き、画角を制御する処理を行う。
また、2眼式の立体視方式により立体視画像を表示する場合には、仮想カメラ制御部118は、左眼用仮想カメラ及び右眼用仮想カメラの位置、向き及び画角を制御する。また、仮想カメラ制御部118は、左眼用仮想カメラと右眼用仮想カメラを設定するための基準となる基準仮想カメラ(センターカメラ)の制御を行い、基準仮想カメラの位置、向き及び左眼用及び右眼用仮想カメラ間の距離情報に基づいて、左眼用及び右眼用仮想カメラの位置、向きを制御するようにしてもよい。多眼立体視画像の場合も同様に、多眼仮想カメラのそれぞれについて位置、向きを制御すればよい。また、空間像方式(水平・垂直両方向に視差を持つ方式を含む)の場合には、仮想カメラの位置、向き及び画角の少なくとも1つを制御して、それに基づく空間座標変換により、仮想空間全体をいったん変換する。その後、変換後の空間内に配置されたオブジェクト等を、それぞれの立体視表示方式に基づいて描画することで、上記の効果を得ることができる。
画像生成部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。
いわゆる3次元画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。
そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。
ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。
そして描画部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。
テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。
隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。
αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
画像生成部120は、立体視画像を表示部190に出力するようにしてもよい。例えば、立体視方式が2眼式の場合であれば、画像生成部120は、左眼用画像生成部と右眼用画像生成部を含む。左眼用画像生成部は、オブジェクト空間内において左眼用仮想カメラから見える画像である左眼用画像を生成し、右眼用画像生成部は、オブジェクト空間内において右眼用仮想カメラから見える画像である右眼用画像を生成する。具体的には、左眼用画像生成部は、オブジェクト空間内の投影面に対してオブジェクトを左眼用仮想カメラの視点で透視投影して描画することで左眼用画像を生成し、右眼用画像生成部は、投影面に対してオブジェクトを右眼用仮想カメラの視点で透視投影して描画することで右眼用画像を生成する。
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
なお、本実施形態のゲーム装置は、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他のゲーム装置とデータを送受信してゲーム処理を行うようにしてもよいし、1つのゲーム装置が、複数の操作部からの操作情報に基づいて処理を行うようにしてもよい。
また、本実施形態のゲーム装置(ゲームシステム)をサーバシステムとして構成してもよい。サーバシステムは、1又は複数のサーバ(認証サーバ、ゲーム処理サーバ、通信サーバ、課金サーバ、データベースサーバ等)により構成することができる。この場合には、サーバシステムは、ネットワークを介して接続された、タッチパッドを備える1又は複数の端末装置(例えば、携帯型ゲーム装置、据え置き型ゲーム装置、プログラム実行可能な携帯電話等)から送信された操作情報(各端末装置に備わるタッチパッドによって検出された接触位置(検出信号)に関する情報を含む)に基づき各種処理を行って、画像を生成するための画像生成用データを生成し、生成した画像生成用データを各端末装置に対して送信する。ここで、画像生成用データとは、本実施形態の手法により生成された画像を各端末装置において表示するためのデータであり、画像データそのものでもよいし、各端末装置が画像を生成するために用いる各種データ(オブジェクトデータ、ゲーム処理結果データ等)であってもよい。
2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
次に本実施形態の手法について図面を用いて説明する。
2−1.概要
図2(A)、図2(B)に、本実施形態のゲーム装置の構成の一例を示す図である。図2(A)は、本実施形態のゲーム装置の外観正面図の一例であり、図2(B)は、本実施形態のゲーム装置の外観背面図の一例である。
図2(A)、図2(B)に、本実施形態のゲーム装置の構成の一例を示す図である。図2(A)は、本実施形態のゲーム装置の外観正面図の一例であり、図2(B)は、本実施形態のゲーム装置の外観背面図の一例である。
図2(A)、図2(B)に示すように、ゲーム装置の筐体CSの前面には、表示部190(ディスプレイ)と、操作部160の一例であるボタンBT及び方向キーDKが設けられており、筐体CSの背面には、タッチパッド162が設けられている。
プレーヤは、両手で筐体CSを把持して、右手の親指でボタンBTを操作し、左手の親指で方向キーDKを操作することができる。また、プレーヤは、筐体CSを把持する手(右手及び左手の少なくとも一方)の指先(人差し指、中指及び薬指の少なくとも1つの指の指先)をタッチパッド162に接触させてタッチ操作(接触入力)を行うことができる。
本実施形態では、図3に示すように、タッチパッド162で検出された接触位置に基づいて、筐体CSを把持する手HDの指先の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトOBの画像を生成して表示部190に表示させる。
図3の例では、タッチパッド162に接触しているプレーヤの左手の人差し指、中指及び薬指の接触位置に基づきこれらの指の位置及び形状を推定して、推定結果に基づきこれらの指に対応するオブジェクトOBを変形して表示部190に表示させている。なお、プレーヤの手の指の内、一部の指のみがタッチパッド162に接触している場合であっても、タッチパッド162に接触する指の接触位置に基づき他の指の位置及び形状を推定して、推定結果に基づきオブジェクトOBを変形してもよい。
図4を用いて、オブジェクトOBの詳細について説明する。図4に示すオブジェクトOBは、接触位置に基づきプレーヤの左手の指の形状を推定したときに、推定結果に基づき位置及び形状が決定されるオブジェクトの一例である。
オブジェクトOBは、それぞれ左手の人差し指、中指及び薬指に対応するオブジェクトFF、MF、RFを含む。なお、オブジェクトOBが、更に小指に対応するオブジェクトを含むようにしてもよい。オブジェクトFF、MF、RFには、それぞれ人体の指の関節構造をモデル化したスケルトンSK(スケルトンモデル)が設定され、各スケルトンSKは、それぞれ指の第1関節、第2関節、付け根の関節に相当する関節J1、J2、JRにより構成される。本実施形態では、タッチパッド162で検出された接触位置に基づき、各スケルトンSKを構成する関節J1と関節J2の位置及び角度を決定する(変化させる)ことで、オブジェクトFF、MF、RF(オブジェクトOBの一例)の位置及び形状を決定する(変形する)。
2−2.指種類の推定
次に、オブジェクトOBの位置及び形状を決定する処理手順について説明する。まず、タッチパッド162で接触入力が行われた場合(接触位置が検出された場合)に、当該接触入力がプレーヤのどの指によって行われたものであるかを推定する。
次に、オブジェクトOBの位置及び形状を決定する処理手順について説明する。まず、タッチパッド162で接触入力が行われた場合(接触位置が検出された場合)に、当該接触入力がプレーヤのどの指によって行われたものであるかを推定する。
具体的には、図5に示すように、タッチパッド162の領域を左右方向に2分割して、タッチパッド162で検出された接触位置が左側の領域ARL内にある場合には、右手の指の接触位置であると推定し、検出された接触位置が右側の領域ARR内にある場合には、左手の指の接触位置であると推定する。
また、タッチパッド162の領域を上下方向に3分割して、検出された接触位置が上段の領域ARU内にある場合には、人差し指の接触位置であると推定し、検出された接触位置が中段の領域ARM内にある場合には、中指の接触位置であると推定し、検出された接触位置が下段の領域ARD内にある場合には、薬指の接触位置であると推定する。例えば、検出された接触位置が左側の領域ARL内であり、且つ上段の領域ARU内にある場合には、右手の人差し指の接触位置であると推定する。
なお、検出された接触位置が移動した場合(連続的に検出される接触位置の座標値が変化した場合)にも、当該接触位置と指の種類の対応付けは変化させない。例えば、図5において、右手人差し指の接触位置として推定された接触位置P0が移動して中段の領域ARM内の接触位置P1となった場合でも、移動後の接触位置P1を右手人差し指の接触位置であると推定する。
また、既に接触位置を検出している状態で新たな接触位置を検出した場合には、既に検出している接触位置と新たに検出した接触位置との位置関係によって、新たな接触位置に対応付ける指の種類を推定してもよい。例えば、図5において、右手人差し指に対応付けられた接触位置P1が検出されている場合に、新たな接触位置P2が接触位置P1の下方の領域で検出された場合には、新たな接触位置P2を右手中指の接触位置であると推定する。
また、既に検出している接触位置と新たに検出した接触位置との位置関係によって、接触位置と指の種類の対応付けを変更してもよい。例えば、図5において、右手人差し指に対応付けられた接触位置P1が検出されている場合に、新たな接触位置P3が接触位置P1の上方の領域で検出された場合には、人差し指の接触位置の上方に中指、薬指の接触位置が検出されることはないとして、新たな接触位置P3を右手人差し指の接触位置であると推定し、接触位置P1を右手中指の接触位置であると推定する。
また、タッチパッド162上の複数の領域を固定的に設定せずに、接触位置のキャリブレーション画面を表示して、タッチパッド162にプレーヤの指を接触させ、そのときの各指の接触位置に基づいて、指の種類を推定するためのタッチパッド162上の複数の領域を設定するようにしてもよい。
2−3.指の位置及び形状の推定
次に、検出された接触位置に対応付けられた指に相当するオブジェクト(図4に示したオブジェクトFF、MF、RFのいずれか)を接触位置に基づき変形する。
次に、検出された接触位置に対応付けられた指に相当するオブジェクト(図4に示したオブジェクトFF、MF、RFのいずれか)を接触位置に基づき変形する。
まず、図6(A)に示すように、オブジェクトOBに設定されるスケルトンSKの先端ED(端部)の位置を、検出された接触位置に基づいて決定する。例えば、オブジェクト空間に設定されるビューボリュームVV内に、タッチパッド162に対応する仮想的な面である仮想面PLを設定し、仮想面PLにおけるスケルトンSKの先端EDの位置を、タッチパッド162上の接触位置P(図6(B)参照)に基づいて決定する。なお、ビューボリュームVVとは、仮想カメラVCの位置、向き、画角及び投影面の位置によって上下左右の構成面が決定される視錐台の領域である。
なお、決定したスケルトンSKの先端EDの位置をキャリブレーションにより補正してもよい。例えば、キャリブレーション時に検出した各指の接触位置がタッチパッド162上の両側端側にある場合には、検出された接触位置に基づき決定される先端EDの位置を、仮想面PLにおいて中央部寄りの位置に補正する。また、このような場合には、検出された接触位置の移動量に対する先端EDの移動量が大きくなるように、先端EDの位置を補正してもよい。このようにすると、プレーヤの手がタッチパッド162の中央部に届かないような場合(例えば、プレーヤの手が小さい場合)であっても、手の大きなプレーヤと同様のゲームプレイを行わせることができる。
また、キャリブレーション用の画面において、タッチパッド162に触れた指を動かすようにプレーヤに指示する内容(例えば、「タッチパッドに触れたまま指を伸ばして下さい」といった指示内容)の表示を行って、そのとき検出された接触位置に基づきプレーヤの指が届く最大の位置を求め、求めた位置に基づきプレーヤの手の大きさ(各指の長さ)を推定して、推定結果に基づき先端EDの位置を補正してもよい。また、キャリブレーション用のミニゲーム(タッチパッド162へのタッチ操作を用いたゲーム)をプレーヤに行わせ、当該ミニゲームの実行中に検出された接触位置に基づきプレーヤの手の大きさを推定してもよい。また、プレーヤの年齢や性別に関する情報(キャリブレーション用の画面においてプレーヤに入力させた情報、ゲーム中にプレーヤによって入力された情報、或いは、管理サーバを用いたネットワークゲーム等の会員登録時にプレーヤによって入力された情報)に基づきプレーヤの手の大きさを推定してもよい。
次に、オブジェクトOBのスケルトンSKの関節JRの位置を決定する。関節JRは、プレーヤの指FGの付け根の関節RT(図6(B)参照)に相当する関節である。本実施形態では、プレーヤの指の付け根の関節RTの位置が、筐体CSの脇(タッチパッド162の脇)の所定の位置に固定されると仮定して、スケルトンSKの関節JRの位置を、タッチパッド162に対応する仮想面PLの位置に基づき決定する。例えば、図6(A)に示すように、オブジェクトOBが右手の指に相当するオブジェクトである場合には、スケルトンSKの関節JRの位置を、仮想面PLから右方向(+X軸方向)に所定距離だけ離れた位置に決定する。
次に、図7(A)、図7(B)に示すように、決定したスケルトンSKの先端EDの位置と、関節RTの位置とに基づいて、スケルトンSKの関節J1、J2の位置と角度をインバースキネマティクスの手法を用いて決定する。そして、各関節の位置が決定されたスケルトンSKの形状に合わせてオブジェクトOBを変形する。このようにすると、検出された接触位置に基づくプレーヤの指の形状の推定と、推定結果に基づくオブジェクトの変形を容易に行うことができる。また、キャリブレーション時に推定したプレーヤの手の大きさに基づいて、スケルトンの各関節の間隔(先端EDと関節J1間の距離、関節J1と関節J2間の距離、関節J2と関節RT間の距離)を求め、求めた関節の間隔と、先端EDの位置と、関節RTの位置とに基づいて、インバースキネマティクスの手法を用いてスケルトンSKの関節J1、J2の位置と角度を決定してもよい。
なお、タッチパッド162からの検出信号に基づいて、スケルトンSKの関節J1の位置及び角度を直接決定してもよい。例えば、タッチパッド162への指先の接触面積を検出し、接触面積からタッチの強さ(圧力)を求め、図8(A)に示すように、タッチの強さが小さいほど、関節J1が仮想面PLから離れたところに位置するようにし、図8(B)に示すように、タッチの強さが大きいほど、関節J1が仮想面PLに近いところに位置するようにしてもよい。このようにすると、タッチの強弱によって変化する指の形状を正確に推定することができる。
また、タッチパッド162からの検出信号に基づいて、スケルトンSKの関節J2の位置及び角度を直接決定してもよい。例えば、接触位置に基づき推定したスケルトンSKの先端EDと関節JRとを結ぶ直線上の近傍に、他の接触位置が検出された場合には、図8(C)に示すように、指の中節部がタッチパッド162に接触していると推定して、関節J1、J2が仮想面PLの近傍に位置するようにする。
このように、本実施形態では、検出された接触位置に基づきタッチパッド162に接触しているプレーヤの指の種類を推定し、推定した指の種類に対応するオブジェクトOBのスケルトンの各関節の位置及び角度を、検出された接触位置に基づき変化させることで、タッチパッド162に接触しているプレーヤの指の位置及び形状の推定と、推定結果に基づくオブジェクトOBの移動、変形を実現する。なお、タッチパッド162に接触していない指に対応するオブジェクトについても、タッチパッド162に接触している指に対応するオブジェクトの位置及び形状に基づいて、拘束条件等を用いて移動・変形するようにしてもよい。
なお、立体視画像を生成する場合に、想定されるプレーヤの視点と表示部190との位置関係や、表示部190とタッチパッド162との位置関係等に基づき、オブジェクトのOBの奥行き値(Z値)を求め、求めた奥行き値に基づきオブジェクトを配置してもよい。例えば、プレーヤの視点と表示部190の位置関係に基づき表示部190に対応する投影面(左眼用仮想カメラの視点及び右眼用仮想カメラの視点でオブジェクトが投影される面)をビューボリュームVV内に設定し、表示部190とタッチパッド162との位置関係等に基づき、タッチパッド162に対応する仮想面PL(図6(A)参照)をビューボリュームVV内に設定して、スケルトンの先端EDが仮想面PLに接触するようにオブジェクトOBを設定してもよい。この場合、オブジェクトOBはビューボリュームVV内の投影面よりも仮想カメラから見て奥側に配置されることになるため、生成される立体視画像を見るプレーヤからは、両眼視差によってオブジェクトOBが表示部190よりも奥側に引っ込んでいるように見える。すなわち、プレーヤは、あたかも表示部190の奥側にある自身の手が表示部190に表示されているような感覚でゲームを行うことができる。2−4.ゲーム処理の例
本実施形態では、推定結果に基づき移動・変形したオブジェクトの位置及び形状に基づきゲーム処理を行う。図9、図10は、本実施形態で生成されるゲーム画像の一例である。
本実施形態では、推定結果に基づき移動・変形したオブジェクトの位置及び形状に基づきゲーム処理を行う。図9、図10は、本実施形態で生成されるゲーム画像の一例である。
図9の例では、推定結果に基づき移動・変形したオブジェクトOBとキャラクタCA(他のオブジェクト)との接触判定を行い、接触判定の結果に基づきキャラクタCAをオブジェクト空間内で移動させるゲーム処理を行っている。プレーヤは、ゲーム装置の筐体の背面に設けられたタッチパッド162に対してタッチ操作を行うことで、タッチ操作を行う自身の指の形状に対応するオブジェクトOBを移動・変形させて、キャラクタCAを移動させる或いは掴むといったゲームプレイを行うことができ、あたかも自身の手によってオブジェクト空間内のオブジェクトに干渉しているような感覚を得ることができる。
図10(A)の例では、オブジェクトCAが存在するオブジェクト空間を仮想カメラから見た画像に、単色画像が合成され、画面全体が曇ったようなゲーム画像GIが生成されている。図10(A)のゲーム画像GIは、1人称視点のゲームにおいて、例えばゴーグル或いは眼鏡越しにゲーム空間を見たゲーム画像を生成する場合に、当該ゴーグル或いは眼鏡が曇っている様子を表している。
そして、図10(B)に示すように、この状態でプレーヤがタッチパッド162を指でタッチして移動させる操作を行うと、推定結果に基づき移動・変形したオブジェクトOBが通過した領域(例えば、オブジェクトOBを投影面に投影したときのオブジェクトOBの通過領域)について単色画像の合成比率を0%とする処理を行う。すなわち、プレーヤは、タッチパッド162に対してタッチ操作を行うことで、自身の手によってゴーグル或いは眼鏡についた曇りをふき取って視界を良好にするといったゲームプレイを行うことができる。また、1人称視点のシューティングゲームにおいて、ゴーグルについた汚れ(例えば、血糊)をゲーム画像で表現する場合に、推定結果に基づき移動・変形したオブジェクトOBが通過した領域にある汚れを消去する処理を行うようにしてもよい。また、推定結果に基づき移動・変形したオブジェクトOBが通過した領域に、色を描画する或いはテクスチャをマッピングする処理を行うことで、当該領域に色を塗る或いは当該領域を汚すといったゲームを実現することができる。
3.処理
次に、本実施形態のゲーム装置の処理の一例について図11のフローチャートを用いて説明する。
次に、本実施形態のゲーム装置の処理の一例について図11のフローチャートを用いて説明する。
まず、オブジェクト制御部112は、タッチパッド162に対する接触入力があったか否かを判断する(ステップS10)。すなわち、タッチパッド162によって接触位置の座標値が検出されたか否かを判断する。接触入力があったと判断した場合(ステップS10のY)には、検出された接触位置に基づき指の種類を推定する(ステップS12)。例えば、図5に示すように、タッパッド162上で接触位置が属する領域や、既に検出されている接触位置に対応付けられた指との位置関係に基づき、接触入力を行った指が、右手か左手か、及び人差し指、中指、薬指のいずれであるかを推定する。
次に、オブジェクト制御部112は、推定された指の種類に対応するオブジェクトを特定し、特定したオブジェクトに設定されたスケルトンの先端EDの位置を、タッチパッド162で検出された接触位置に基づき決定する(ステップS14)。例えば、図6に示すように、仮想面PLにおける先端EDの位置を検出された接触位置に基づき決定する。
次に、オブジェクト制御部112は、決定された先端EDの位置に基づきスケルトンの関節J1、J2(第1関節と第2関節)の位置及び角度をインバースキネマティクにより決定する(ステップS16)。なお、図8に示すように、タッチパッドへの指先の接触面積や、他の接触位置に基づき関節J1、J2の位置及び角度を決定してもよい。
次に、オブジェクト制御部112は、各関節の位置が決定されたスケルトンの形状に応じて、当該スケルトンが設定されたオブジェクトの位置及び形状を決定する(ステップS18)。
次に、ステップS10で検出された全ての接触位置の処理を行ったか否かを判断し(ステップS20)、全ての接触位置の処理を行っていないと判断した場合(ステップS20のN)には、ステップS12に進み、検出された全ての接触位置の処理を終えるまでステップS12〜S18の処理を繰り返す。
全ての接触位置の処理を行ったと判断した場合(ステップS20のY)には、ゲーム処理部114は、ステップS18で決定されたオブジェクトの位置及び形状に基づきゲーム処理を行う(ステップS22)。例えば、オブジェクトの位置及び形状に基づき他のオブジェクトとの接触判定を行って接触判定の結果に基づき他のオブジェクトの移動制御を行ってもよい。なお、接触判定は、オブジェクト空間内の座標値に基づき行ってもよいし、各オブジェクトを2次元平面に投影したときの2次元平面における座標値に基づき行ってもよい。また、図10(B)に示すように、ゲーム処理として、オブジェクトの位置及び形状に基づきゲーム画像を変化させるための制御を行ってもよい。
次に、画像生成部120は、オブジェクト空間内の仮想カメラから見える画像(ゲーム画像)を生成する(ステップS24)。
次に、処理部100は、処理を続けるか否かを判断し(ステップS26)、処理を続ける場合には、ステップS10の処理に進み、ステップS10以降の処理を1フレーム毎に繰り返す。
4.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
例えば、上記実施形態では、プレーヤの指の推定結果に基づき位置及び形状が決定されるオブジェクトの一例として、人体の指を模したオブジェクトについて説明したが、指以外のオブジェクト(例えば、熊手)を用いてもよい。また、指の推定結果に基づき長手方向の長さと向きが変化するようなオブジェクトであって、関節構造(スケルトン)を持たないオブジェクトを用いてもよい。
また、上記実施形態では、タッチパッドをゲーム装置の筐体の背面に設けた場合について説明したが、本発明は、タッチパッドをゲーム装置の筐体前面の表示部に設けてタッチパネルディスプレイを構成する場合にも適用することができる。
また、上記実施形態では、スケルトンの付け根の関節JRの位置を固定とする場合について説明したが、検出された接触位置に基づき付け根の関節JRの位置を決定してもよい。
また、上記実施形態では、検出された接触位置がタッチパッドの右側にあるか左側にあるかによって、プレーヤの指の種類(右手であるか左手であるか)を推定する場合について説明したが、指の種類を推定する手法はこれに限られない。例えば、同時に検出された2点の接触位置に基づき右手であるか左手であるかを推定してもよい。
すなわち、図12に示す例において、検出された接触位置がP4、P5である場合、タッチパッド162上において2点の接触位置P4、P5を結ぶ直線が左肩上がりとなっているため、右手(タッチパッドが筐体前面に設けられている場合には左手)であると推定する。また、検出された接触位置がP6、P7である場合、タッチパッド162上において2点の接触位置P6、P7を結ぶ直線が右肩上がりとなっているため、左手(タッチパッドが筐体前面に設けられている場合には右手)であると推定する。また、指でタッチ操作を行う場合には、検出される接触位置が指の付け根の方向に僅かに移動する。このことを利用して、検出された接触位置の移動方向に基づき右手であるか左手であるかを推定してもよい。
また、上記実施形態では、プレーヤの指の推定結果に基づき位置及び形状が決定されるオブジェクトをゲーム画像に表示させる例について説明したが、当該オブジェクトの位置及び形状に基づくゲーム処理のみを行って、当該オブジェクトをゲーム画像内に表示させない(当該オブジェクトを描画しない)ようにしてもよい。また、操作部160或いはタッチパッド162への操作入力(例えば、ボタン操作或いはタッチ操作)に基づき、当該オブジェクトの表示・非表示を切り替えてもよい。
また、上記実施形態では、手の小さなプレーヤでも手の大きなプレーヤと同様のゲームプレイを行えるようにするために、スケルトンの先端EDの位置を補正する例について説明したが、プレーヤの手が小さいと推定される場合に、オブジェクト空間に配置される他のオブジェクト(例えば、キャラクタ)の配置位置を変化させることで上記課題を解決してもよい。例えば、当該他のオブジェクトをゲーム画像において中央寄りに配置しないようにすればよい。
100 処理部、110 オブジェクト空間設定部、112 オブジェクト制御部、114 ゲーム処理部、118 仮想カメラ制御部、120 画像生成部、130 音生成部、160 操作部、162 タッチパッド、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部
Claims (11)
- 接触入力を検出するためのタッチパッドを有するゲーム装置のためのプログラムであって、
前記タッチパッドによって検出された接触位置に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、
前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、
オブジェクト空間内の所与の視点から見える画像を生成する画像生成部としてコンピュータを機能させることを特徴とするプログラム。 - 請求項1において、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記タッチパッドに接触するプレーヤの指の形状を推定し、推定結果に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置することを特徴とするプログラム。 - 請求項2において、
前記ゲーム装置は、プレーヤが手で把持可能な筐体と、前記筐体の前面に設けられた表示部と、前記筐体の背面に設けられ、前記筐体を把持する手の指先で接触入力可能な前記タッチパッドとを有し、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記筐体を把持する手の指の形状を推定することを特徴とするプログラム。 - 請求項2又は3において、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記オブジェクトのスケルトンを構成する関節の位置及び角度を決定することを特徴とするプログラム。 - 請求項4において、
前記オブジェクト制御部が、
前記タッチパッドによって検出された接触位置に基づいて、前記スケルトンの端部の位置を決定し、前記スケルトンの端部の位置に基づき前記スケルトンを構成する関節の位置及び角度をインバースキネマティクスにより決定することを特徴とするプログラム。 - 請求項4又は5において、
前記オブジェクトのスケルトンは、人体の指の関節構造をモデル化したものであることを特徴とするプログラム。 - 請求項1乃至6のいずれかにおいて、
前記ゲーム処理部が、
前記オブジェクトの位置及び形状に基づき前記オブジェクトとオブジェクト空間内の他のオブジェクトとの接触判定を行い、接触判定の結果に基づいて、前記他のオブジェクトのオブジェクト空間における移動制御を行うことを特徴とするプログラム。 - 請求項1乃至7のいずれかにおいて、
前記画像生成部が、
前記オブジェクトを含む前記画像を生成することを特徴とするプログラム。 - コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至8のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。
- 接触入力を検出するためのタッチパッドと、
前記タッチパッドによって検出された接触位置に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、
前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、
オブジェクト空間内の所与の視点から見える画像を生成する画像生成部とを含むことを特徴とするゲーム装置。 - 接触入力を検出するためのタッチパッドによって検出された接触位置に基づき位置及び形状が決定されるオブジェクトをオブジェクト空間に配置するオブジェクト制御部と、
前記オブジェクトの位置及び形状に基づきゲーム処理を行うゲーム処理部と、
オブジェクト空間内の所与の視点から見える画像を生成する画像生成部とを含むことを特徴とするサーバシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011126789A JP2012249978A (ja) | 2011-06-06 | 2011-06-06 | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011126789A JP2012249978A (ja) | 2011-06-06 | 2011-06-06 | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012249978A true JP2012249978A (ja) | 2012-12-20 |
Family
ID=47523367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011126789A Withdrawn JP2012249978A (ja) | 2011-06-06 | 2011-06-06 | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012249978A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014179102A (ja) * | 2013-03-14 | 2014-09-25 | Samsung Electronics Co Ltd | タッチスクリーンを含む画面表示制御装置及び画面表示制御方法 |
JP2015108985A (ja) * | 2013-12-05 | 2015-06-11 | 三菱電機株式会社 | 表示制御装置及び表示制御方法 |
JP2015230587A (ja) * | 2014-06-05 | 2015-12-21 | 株式会社 日立産業制御ソリューションズ | プレゼンテーション用端末及びプレゼンテーション方法 |
JP2021524776A (ja) * | 2018-05-18 | 2021-09-16 | バルブ コーポレーション | 力検知抵抗器(fsr)を含むハンドヘルドコントローラのセンサ融合アルゴリズム |
US11786809B2 (en) | 2016-10-11 | 2023-10-17 | Valve Corporation | Electronic controller with finger sensing and an adjustable hand retainer |
US11992751B2 (en) | 2016-10-11 | 2024-05-28 | Valve Corporation | Virtual reality hand gesture generation |
US12042718B2 (en) | 2016-10-11 | 2024-07-23 | Valve Corporation | Holding and releasing virtual objects |
-
2011
- 2011-06-06 JP JP2011126789A patent/JP2012249978A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014179102A (ja) * | 2013-03-14 | 2014-09-25 | Samsung Electronics Co Ltd | タッチスクリーンを含む画面表示制御装置及び画面表示制御方法 |
US11150775B2 (en) | 2013-03-14 | 2021-10-19 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling screen display using temperature and humidity |
JP2015108985A (ja) * | 2013-12-05 | 2015-06-11 | 三菱電機株式会社 | 表示制御装置及び表示制御方法 |
JP2015230587A (ja) * | 2014-06-05 | 2015-12-21 | 株式会社 日立産業制御ソリューションズ | プレゼンテーション用端末及びプレゼンテーション方法 |
US11786809B2 (en) | 2016-10-11 | 2023-10-17 | Valve Corporation | Electronic controller with finger sensing and an adjustable hand retainer |
US11992751B2 (en) | 2016-10-11 | 2024-05-28 | Valve Corporation | Virtual reality hand gesture generation |
US12042718B2 (en) | 2016-10-11 | 2024-07-23 | Valve Corporation | Holding and releasing virtual objects |
JP2021524776A (ja) * | 2018-05-18 | 2021-09-16 | バルブ コーポレーション | 力検知抵抗器(fsr)を含むハンドヘルドコントローラのセンサ融合アルゴリズム |
JP7361725B2 (ja) | 2018-05-18 | 2023-10-16 | バルブ コーポレーション | 力検知抵抗器(fsr)を含むハンドヘルドコントローラのセンサ融合アルゴリズム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5813948B2 (ja) | プログラム及び端末装置 | |
US9652063B2 (en) | Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method | |
JP5085059B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP2012058968A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP2012249978A (ja) | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム | |
JP2012252627A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
CN109754471A (zh) | 增强现实中的图像处理方法及装置、存储介质、电子设备 | |
JP2009237680A (ja) | プログラム、情報記憶媒体および画像生成システム | |
WO2016199860A1 (ja) | 端末装置 | |
US20100128112A1 (en) | Immersive display system for interacting with three-dimensional content | |
JP2013050881A (ja) | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 | |
JP4624582B2 (ja) | 画像生成装置、プログラム及び情報記憶媒体 | |
JP2008225985A (ja) | 画像認識システム | |
JP6291155B2 (ja) | プログラム及びサーバ | |
US20130057574A1 (en) | Storage medium recorded with program, information processing apparatus, information processing system, and information processing method | |
CN102682469A (zh) | 具有制作三维模型的功能的图像处理装置及方法 | |
JP2013050882A (ja) | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 | |
JP2014199479A (ja) | プログラム及び情報処理装置 | |
JP6623008B2 (ja) | ゲーム装置及びプログラム | |
JP4772952B2 (ja) | 立体視画像生成装置及び情報記憶媒体 | |
JP4717622B2 (ja) | プログラム、情報記録媒体および画像生成システム | |
JP2019166218A (ja) | プログラム及びゲーム装置 | |
JP4624587B2 (ja) | 画像生成装置、プログラム及び情報記憶媒体 | |
JP4305903B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP5766540B2 (ja) | プログラム及びゲームシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |