本開示に係るシステムは、複数のユーザにゲームを提供するためのシステムである。以下、該システムについて図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
<システム1の動作概要>
図1は、本実施形態に係るシステム1の概要を示す図である。システム1は、複数のユーザ端末100(コンピュータ)と、サーバ200と、ゲームプレイ端末300(外部装置、第2外部装置)と、配信端末400(外部、第1外部装置)とを含む。なお、図1では、複数のユーザ端末100の一例として、ユーザ端末100A〜100C、換言すれば、3台のユーザ端末100を記載しているが、ユーザ端末100の台数は図示の例に限定されない。また、本実施形態では、ユーザ端末100A〜Cを区別する必要が無い場合、「ユーザ端末100」と記載する。ユーザ端末100、ゲームプレイ端末300、および配信端末400は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
(ゲームの概要)
本実施形態では、システム1によって提供されるゲーム(以下、本ゲーム)の一例として、ゲームプレイ端末300のユーザが主としてプレイするゲームを説明する。以下、ゲームプレイ端末300のユーザを、「プレイヤ」と称する。プレイヤ(演者)は、一例として、本ゲームに登場するキャラクタを操作することにより、ゲームを進行させる。また、本ゲームにおいて、ユーザ端末100のユーザは、プレイヤによるゲームの進行を支援する役割を担う。本ゲームの詳細については後述する。なお、システム1によって提供されるゲームは、複数のユーザが参加するゲームであればよく、この例に限定されない。
(ゲームプレイ端末300)
ゲームプレイ端末300は、プレイヤによる入力操作に応じてゲームを進行させる。また、ゲームプレイ端末300は、プレイヤのゲームプレイにより生成された情報(以下、ゲーム進行情報)を、順次、サーバ200にリアルタイムで配信する。
(サーバ200)
サーバ200は、ゲームプレイ端末300からリアルタイムに受信したゲーム進行情報(第2データ)を、ユーザ端末100に送信する。また、サーバ200は、ユーザ端末100、ゲームプレイ端末300、および配信端末400の間の各種情報の送受信を仲介する。
(配信端末400)
配信端末400は、配信端末400のユーザによる入力操作に応じて、動作指図データ(第1データ)を生成し、サーバ200を介してユーザ端末100へ動作指図データを配信する。動作指図データとは、ユーザ端末100において動画を再生するためのデータであり、具体的には、動画に登場するキャラクタを動作させるためのデータである。
本実施形態では、一例として、配信端末400のユーザは、本ゲームのプレイヤである。また、一例として、ユーザ端末100にて動作指図データに基づいて再生される動画は、プレイヤがゲームで操作したキャラクタが動作する動画である。「動作」とは、キャラクタの身体の少なくとも一部を動かすことであり、発話も含む。このため、本実施形態に係る動作指図データは、例えば、キャラクタに発話させるための音声データと、キャラクタの身体を動かすためのモーションデータとを含む。
動作指図データは、一例として、本ゲームの終了後にユーザ端末100へ送信される。動作指図データ、および、該動作指図データに基づいて再生される動画の詳細については後述する。
(ユーザ端末100)
ユーザ端末100は、ゲーム進行情報をリアルタイムに受信し、該情報を用いてゲーム画面を生成して表示する。換言すれば、ユーザ端末100は、リアルタイムレンダリングにより、プレイヤがプレイしているゲームのゲーム画面を再生する。これにより、ユーザ端末100のユーザは、プレイヤがゲームをプレイしながら視認しているゲーム画面と同一のゲーム画面を、プレイヤとほぼ同じタイミングで視認することができる。
また、ユーザ端末100は、ユーザによる入力操作に応じて、プレイヤによるゲームの進行を支援するための情報を生成し、該情報を、サーバ200を介してゲームプレイ端末300へ送信する。該情報の詳細については後述する。
また、ユーザ端末100は、配信端末400から動作指図データを受信し、該動作指図データを用いて動画(映像)を生成して再生する。換言すれば、ユーザ端末100は、動作指図データをレンダリングして再生する。
<システム1のハードウェア構成>
図2は、ユーザ端末100のハードウェア構成を示す図である。図3は、サーバ200のハードウェア構成を示す図である。図4は、ゲームプレイ端末300のハードウェア構成を示す図である。図5は、配信端末400のハードウェア構成を示す図である。
(ユーザ端末100)
本実施形態では、一例として、ユーザ端末100がスマートフォンとして実現される例を説明するが、ユーザ端末100はスマートフォンに限定されない。例えば、ユーザ端末100はフィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピュータ(いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして実現されてもよい。また、ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい。
ユーザ端末100は図2に示すように、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、カメラ17と、測距センサ18とを備える。ユーザ端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末100は、タッチスクリーン15に代えて、または、加えて、ユーザ端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
また、図2に示すように、ユーザ端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、ユーザ端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値をユーザ端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値をユーザ端末100へ送信する。
なお、ユーザ端末100がカメラ17および測距センサ18を備えることに代えて、または、加えて、コントローラ1020がカメラ17および測距センサ18を有していてもよい。
ユーザ端末100は、例えばゲーム開始時に、コントローラ1020を使用するユーザに、該ユーザの名前またはログインID等のユーザ識別情報を、該コントローラ1020を介して入力させることが望ましい。これにより、ユーザ端末100は、コントローラ1020とユーザとを紐付けることが可能となり、受信した出力値の送信元(コントローラ1020)に基づいて、該出力値がどのユーザのものであるかを特定することができる。
ユーザ端末100が複数のコントローラ1020と通信する場合、各コントローラ1020を各ユーザが把持することで、ネットワーク2を介してサーバ200などの他の装置と通信せずに、該1台のユーザ端末100でマルチプレイを実現することができる。また、各ユーザ端末100が無線LAN(Local Area Network)規格等の無線規格により互いに通信接続する(サーバ200を介さずに通信接続する)ことで、複数台のユーザ端末100によりローカルでマルチプレイを実現することもできる。1台のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、ユーザ端末100は、さらに、サーバ200が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端末100は、サーバ200が備える後述する種々の機能を分散して備えていてもよい。
なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末100はサーバ200と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレイ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ200に送信してもよい。
また、コントローラ1020は、ユーザ端末100に着脱可能な構成であるとしてもよい。この場合、ユーザ端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末100とコントローラ1020とが結合している場合は、ユーザ端末100とコントローラ1020とは、有線を介して信号を送受信する。
図2に示すように、ユーザ端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、ユーザ端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えばゲームプログラムである。
ユーザ端末100は、サーバ200等の外部の装置と通信することにより取得したゲームプログラムをユーザ端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得したゲームプログラムをメモリ11に記憶してもよい。
以上で説明したとおり、ユーザ端末100は、該ユーザ端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、タッチスクリーン15、カメラ17、および、測距センサ18を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
例えば、操作部が、カメラ17および測距センサ18の少なくともいずれか一方で構成される場合、該操作部が、ユーザ端末100の近傍の物体1010を検出し、当該物体の検出結果から入力操作を特定する。一例として、物体1010としてのユーザの手、予め定められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ端末100は、カメラ17の撮影画像からユーザの手が検出された場合、該撮影画像に基づき検出されるジェスチャ(ユーザの手の一連の動き)を、ユーザの入力操作として特定し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。
あるいは、操作部がタッチスクリーン15で構成される場合、ユーザ端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、ユーザ端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
(サーバ200)
サーバ200は、一例として、ワークステーションまたはパーソナルコンピュータなどの汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
(ゲームプレイ端末300)
ゲームプレイ端末300は、一例として、パーソナルコンピュータなどの汎用コンピュータであってよい。ゲームプレイ端末300は、プロセッサ30と、メモリ31と、ストレージ32と、通信IF33と、入出力IF34とを備える。ゲームプレイ端末300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
図4に示すように、本実施形態に係るゲームプレイ端末300は、一例として、HMD(Head Mounted Display)セット1000に含まれる。つまり、HMDセット1000が、システム1に含まれていると表現することができ、また、プレイヤは、HMDセット1000を用いてゲームをプレイすると表現することもできる。なお、プレイヤがゲームをプレイするための装置は、HMDセット1000に限定されない。一例として、該装置は、プレイヤにゲームを仮想体験させることが可能な装置であればよい。また、該装置は、スマートフォン、フィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピュータ(いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして実現されてもよい。また、該装置は、ゲームプレイに適したゲーム装置であってもよい。
HMDセット1000は、ゲームプレイ端末300の他、HMD500、HMDセンサ510、モーションセンサ520、ディスプレイ530、コントローラ540を備える。HMD500は、モニタ51と、注視センサ52と、第1カメラ53と、第2カメラ54と、マイク55と、スピーカ56とを含む。コントローラ540は、モーションセンサ520を含み得る。
HMD500は、プレイヤの頭部に装着され、動作中に仮想空間をプレイヤに提供し得る。より具体的には、HMD500は、右目用の画像および左目用の画像をモニタ51にそれぞれ表示する。プレイヤの各目がそれぞれの画像を視認すると、プレイヤは、両目の視差に基づき当該画像を3次元画像として認識し得る。HMD500は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。
モニタ51は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ51は、プレイヤの両目の前方に位置するようにHMD500の本体に配置されている。したがって、プレイヤは、モニタ51に表示される3次元画像を視認すると、仮想空間に没入することができる。ある局面において、仮想空間は、例えば、背景、プレイヤが操作可能なオブジェクト、プレイヤが選択可能なメニューの画像を含む。ある局面において、モニタ51は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。
別の局面において、モニタ51は、透過型の表示装置として実現され得る。この場合、HMD500は、図1に示されるようにプレイヤの目を覆う密閉型ではなく、メガネ型のような開放型であり得る。透過型のモニタ51は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。モニタ51は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニタ51は、HMD500に搭載されたカメラで撮影した現実空間の画像を表示してもよいし、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。
ある局面において、モニタ51は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ51は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ51は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
ある局面において、HMD500は、図示せぬ複数の光源を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ510は、HMD500の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ510は、HMD500が発する複数の赤外線を読み取り、現実空間内におけるHMD500の位置および傾きを検出する。
別の局面において、HMDセンサ510は、カメラにより実現されてもよい。この場合、HMDセンサ510は、カメラから出力されるHMD500の画像情報を用いて、画像解析処理を実行することにより、HMD500の位置および傾きを検出することができる。
別の局面において、HMD500は、位置検出器として、HMDセンサ510の代わりに、あるいはHMDセンサ510に加えてセンサ(不図示)を備えてもよい。HMD500は、該センサを用いて、HMD500自身の位置および傾きを検出し得る。例えば、該センサが角速度センサ、地磁気センサ、あるいは加速度センサである場合、HMD500は、HMDセンサ510の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、HMD500に備えられたセンサが角速度センサである場合、角速度センサは、現実空間におけるHMD500の3軸周りの角速度を経時的に検出する。HMD500は、各角速度に基づいて、HMD500の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD500の傾きを算出する。
注視センサ52は、プレイヤの右目および左目の視線が向けられる方向を検出する。つまり、注視センサ52は、プレイヤの視線を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ52は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ52は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ52は、例えば、プレイヤの右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ52は、検出した各回転角に基づいて、プレイヤの視線を検知することができる。
第1カメラ53は、プレイヤの顔の下部を撮影する。より具体的には、第1カメラ53は、プレイヤの鼻および口などを撮影する。第2カメラ54は、プレイヤの目および眉などを撮影する。HMD500のプレイヤ側の筐体をHMD500の内側、HMD500のプレイヤとは逆側の筐体をHMD500の外側と定義する。ある局面において、第1カメラ53は、HMD500の外側に配置され、第2カメラ54は、HMD500の内側に配置され得る。第1カメラ53および第2カメラ54が生成した画像は、ゲームプレイ端末300に入力される。別の局面において、第1カメラ53と第2カメラ54とを1台のカメラとして実現し、この1台のカメラでプレイヤの顔を撮影するようにしてもよい。
マイク55は、プレイヤの発話を音声信号(電気信号)に変換してゲームプレイ端末300に出力する。スピーカ56は、音声信号を音声に変換してプレイヤに出力する。別の局面において、HMD500は、スピーカ56に替えてイヤホンを含み得る。
コントローラ540は、有線または無線によりゲームプレイ端末300に接続されている。コントローラ540は、プレイヤからゲームプレイ端末300への命令の入力を受け付ける。ある局面において、コントローラ540は、プレイヤによって把持可能に構成される。別の局面において、コントローラ540は、プレイヤの身体あるいは衣類の一部に装着可能に構成される。さらに別の局面において、コントローラ540は、ゲームプレイ端末300から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。さらに別の局面において、コントローラ540は、プレイヤから、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。
ある局面において、コントローラ540は、複数の光源を含む。各光源は例えば、赤外線を発するLEDにより実現される。HMDセンサ510は、ポジショントラッキング機能を有する。この場合、HMDセンサ510は、コントローラ540が発する複数の赤外線を読み取り、現実空間内におけるコントローラ540の位置および傾きを検出する。別の局面において、HMDセンサ510は、カメラにより実現されてもよい。この場合、HMDセンサ510は、カメラから出力されるコントローラ540の画像情報を用いて、画像解析処理を実行することにより、コントローラ540の位置および傾きを検出することができる。
モーションセンサ520は、ある局面において、プレイヤの手に取り付けられて、プレイヤの手の動きを検出する。例えば、モーションセンサ520は、手の回転速度、回転数等を検出する。検出された信号は、ゲームプレイ端末300に送られる。モーションセンサ520は、例えば、コントローラ540に設けられている。ある局面において、モーションセンサ520は、例えば、プレイヤに把持可能に構成されたコントローラ540に設けられている。別の局面において、現実空間における安全のため、コントローラ540は、手袋型のようにプレイヤの手に装着されることにより容易に飛んで行かないものに装着される。さらに別の局面において、プレイヤに装着されないセンサがプレイヤの手の動きを検出してもよい。例えば、プレイヤを撮影するカメラの信号が、プレイヤの動作を表わす信号として、ゲームプレイ端末300に入力されてもよい。モーションセンサ520とゲームプレイ端末300とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetoothその他の公知の通信手法が用いられる。
ディスプレイ530は、モニタ51に表示されている画像と同様の画像を表示する。これにより、HMD500を装着しているプレイヤ以外のユーザにもプレイヤと同様の画像を視聴させることができる。ディスプレイ530に表示される画像は、3次元画像である必要はなく、右目用の画像や左目用の画像であってもよい。ディスプレイ530としては、例えば、液晶ディスプレイや有機ELモニタなどが挙げられる。
ゲームプレイ端末300は、HMD500の各部、コントローラ540、およびモーションセンサ520から取得した各種情報に基づいて、プレイヤの操作対象となるキャラクタを動作させ、ゲームを進行させる。ここでの「動作」には、身体の各部を動かすこと、姿勢を変えること、顔の表情を変えること、移動、発話、仮想空間に配置されたオブジェクトに触れたり、動かしたりすること、キャラクタが把持する武器、道具などを使用することなどが含まれる。すなわち、本ゲームでは、プレイヤが身体の各部を動かすことにより、キャラクタもプレイヤと同様に身体の各部を動かす。また、本ゲームでは、プレイヤが発話した内容をキャラクタが発話する。換言すれば、本ゲームにおいて、キャラクタは、プレイヤの分身としてふるまうアバターオブジェクトである。一例として、キャラクタの動作の少なくとも一部が、プレイヤによるコントローラ540に対する入力により実行されてもよい。
本実施形態では、モーションセンサ520は、一例として、プレイヤの両手、プレイヤの両足、プレイヤの腰部、および、プレイヤの頭部に取り付けられる。プレイヤの両手に取り付けられるモーションセンサ520は、上述したとおり、コントローラ540に設けられていてもよい。また、プレイヤの頭部に取り付けられるモーションセンサ520は、HMD500に設けられていてもよい。モーションセンサ520は、さらに、ユーザの両肘や両膝に取り付けられてもよい。プレイヤに取り付けるモーションセンサ520の数を増やすことにより、プレイヤの動きをより正確にキャラクタに反映させることができる。
また、プレイヤは、モーションセンサ520を身体の各部に取り付けることに代えて、1以上のモーションセンサ520が取り付けられたスーツを着用してもよい。つまり、モーションキャプチャの方法は、モーションセンサ520を用いる例に限定されない。
(配信端末400)
配信端末400は、スマートフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。また、配信端末400は、デスクトップパソコン等の、いわゆる据え置き型の端末であってもよい。
配信端末400は、図5に示すように、プロセッサ40と、メモリ41と、ストレージ42と、通信IF43と、入出力IF44と、タッチスクリーン45とを備える。なお、配信端末400は、タッチスクリーン45に代えて、または、加えて、配信端末400本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF44を備えていてもよい。
コントローラ1021は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ1021は、配信端末400の操作者(本実施形態ではプレイヤ)が、該入力機構に対して入力した入力操作に基づく出力値を配信端末400へ送信する。また、コントローラ1021は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を配信端末400へ送信してもよい。上述の出力値は、通信IF43を介して配信端末400に受け付けられる。
配信端末400は、カメラと、測距センサ(ともに不図示)とを備えていてもよい。配信端末400が備えることに代えて、または、加えて、コントローラ1021がカメラと、測距センサとを有してしてもよい。
以上で説明したとおり、配信端末400は、該配信端末400に対して情報を入力する機構の一例として、通信IF43、入出力IF44、タッチスクリーン45を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
操作部がタッチスクリーン45で構成されている場合、配信端末400は、タッチスクリーン45の入力部451に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF43で構成される場合、配信端末400は、コントローラ1021から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF44で構成される場合、配信端末400は、該入出力IF44と接続される入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
<各装置のハードウェア構成要素>
プロセッサ10、20、30、40はそれぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400の全体の動作を制御する。プロセッサ10、20、30、40は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。プロセッサ10、20、30、40は、それぞれ、後述するストレージ12、22、32、42からプログラムを読み出す。そして、プロセッサ10、20、30、40は、それぞれ、読み出したプログラムを、後述するメモリ11、21、31、41に展開する。プロセッサ10、20、30は、展開したプログラムを実行する。
メモリ11、21、31、41は主記憶装置である。メモリ11、21、31、41は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ41は、プロセッサ40が後述するストレージ42から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ40に作業領域を提供する。メモリ41は、プロセッサ40がプログラムに従って動作している間に生成した各種データも一時的に記憶する。
本実施形態において、プロセッサ10および30が実行するプログラムは、本ゲームのゲームプログラムであってもよい。本実施形態において、プロセッサ40が実行するプログラムは、動作指図データの配信を実現するための配信プログラムであってもよい。また、プロセッサ10は、さらに、動画の再生を実現するための視聴プログラムを実行してもよい。
本実施形態において、プロセッサ20が実行するプログラムは、上述のゲームプログラム、配信プログラム、視聴プログラムの少なくとも何れかであってもよい。プロセッサ20は、ユーザ端末100、ゲームプレイ端末300、および配信端末400の少なくとも何れかからの要求等に応じて、ゲームプログラム、配信プログラム、視聴プログラムの少なくとも何れかを実行する。なお、配信プログラムと視聴プログラムは、並行して実行されてもよい。
すなわち、ゲームプログラムは、ゲームをユーザ端末100、サーバ200、およびゲームプレイ端末300の協働により実現するプログラムであってもよい。配信プログラムは、動作指図データの配信を、サーバ200と配信端末400との協働により実現するプログラムであってもよい。視聴プログラムは、動画の再生を、ユーザ端末100とサーバ200との協働により実現するプログラムであってもよい。
ストレージ12、22、32、42は補助記憶装置である。ストレージ12、22、32、42は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、32には、例えば、ゲームに関する各種データが格納される。ストレージ42には、動作指図データの配信に関する各種データが格納される。また、ストレージ12には、動画の再生に関する各種データが格納される。ストレージ22には、ゲーム、動作指図データの配信、および動画の再生それぞれに関する各種データのうち、少なくとも一部が格納されてもよい。
通信IF13、23、33、43は、それぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400における各種データの送受信を制御する。通信IF13、23、33、43は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。
入出力IF14、24、34、44は、それぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400がデータの入力を受け付けるため、また、データを出力するためのインターフェースである。入出力IF14、24、34、44は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14、24、34、44は、物理ボタン、カメラ、マイク、スピーカ、マウス、キーボード、ディスプレイ、スティック、レバーなどを含み得る。また、入出力IF14、24、34、44は、周辺機器との間でデータを送受信するための接続部を含み得る。
タッチスクリーン15は、入力部151と表示部152(ディスプレイ)とを組み合わせた電子部品である。タッチスクリーン45は、入力部451と表示部452とを組み合わせた電子部品である。入力部151および451は、一例として、タッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152および452は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。
入力部151および451は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151および451は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。
図示していないが、ユーザ端末100および配信端末400は、それぞれ、ユーザ端末100および配信端末400の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。
ユーザ端末100および配信端末400がセンサを備えている場合、プロセッサ10および40は、それぞれ、センサの出力からユーザ端末100および配信端末400の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10および40は、それぞれ、ユーザ端末100および配信端末400が縦向きに保持されているときには、縦長の画像を表示部152および452に表示させる縦画面表示としてもよい。一方、ユーザ端末100および配信端末400が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10および40は、それぞれ、ユーザ端末100および配信端末400の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。
<システム1の機能的構成>
図6は、システム1に含まれるユーザ端末100、サーバ200、およびHMDセット1000の機能的構成を示すブロック図である。図7は、図6に示す配信端末400の機能的構成を示すブロック図である。
ユーザ端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。ユーザ端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、入出力IF14、およびタッチスクリーン15等の協働によって、制御部110および記憶部120として機能する。
サーバ200は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する機能を有する。サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。
HMDセット1000(ゲームプレイ端末300)は、プレイヤの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能と、ゲーム進行情報を、サーバ200を介してユーザ端末100へリアルタイムに送信する機能を有する。HMDセット1000は、ゲームプレイ端末300のプロセッサ30、メモリ31、ストレージ32、通信IF33、入出力IF34、並びに、HMD500、HMDセンサ510、モーションセンサ520、およびコントローラ540等の協働によって、制御部310および記憶部320として機能する。
配信端末400は、動作指図データを生成して、該動作指図データを、サーバ200を介してユーザ端末100へ送信する機能を有する。配信端末400は、プロセッサ40、メモリ41、ストレージ42、通信IF43、入出力IF44、およびタッチスクリーン45等の協働によって、制御部410および記憶部420として機能する。
(各装置の記憶部が格納するデータ)
記憶部120は、ゲームプログラム131(プログラム)、ゲーム情報132、および、ユーザ情報133を格納する。記憶部220は、ゲームプログラム231、ゲーム情報232、ユーザ情報233、および、ユーザリスト234を格納する。記憶部320は、ゲームプログラム331、ゲーム情報332、および、ユーザ情報333を格納する。記憶部420は、ユーザリスト421、モーションリスト422、配信プログラム423(プログラム、第2プログラム)を格納する。
ゲームプログラム131、231、331は、それぞれ、ユーザ端末100、サーバ200、HMDセット1000が実行するゲームプログラムである。ゲームプログラム131、231、331に基づいて各装置が協働して動作することにより、本ゲームが実現される。なお、ゲームプログラム131および331は、記憶部220に格納され、ユーザ端末100およびHMDセット1000にそれぞれダウンロードされる構成でもよい。なお、本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、配信端末400から受信したデータをレンダリングし、動画を再生するものとする。換言すれば、ゲームプログラム131は、配信端末400から配信された動画指図データを用いて、動画を再生するためのプログラムでもある。該動画を再生するためのプログラムは、ゲームプログラム131と異なってもよい。この場合、記憶部120は、ゲームプログラム131とは別に、該動画を再生するためのプログラムを格納する。
ゲーム情報132、232、332は、それぞれ、ユーザ端末100、サーバ200、HMDセット1000がゲームプログラムを実行する際に参照するデータである。ユーザ情報133、233、333は、ユーザ端末100のユーザのアカウントに関するデータである。ゲーム情報232は、各ユーザ端末100のゲーム情報132、および、HMDセット1000のゲーム情報332である。ユーザ情報233は、各ユーザ端末100のユーザ情報133、および、ユーザ情報333に含まれる、プレイヤのユーザ情報である。ユーザ情報333は、各ユーザ端末100のユーザ情報133、および、プレイヤのユーザ情報である。
ユーザリスト234およびユーザリスト421は、ゲームに参加したユーザのリストである。ユーザリスト234およびユーザリスト421は、プレイヤによる直近のゲームプレイにおいて参加したユーザのリストの他、該ゲームプレイ以前の各ゲームプレイにおいて参加したユーザのリストを含んでいてもよい。モーションリスト422は、予め作成されている複数のモーションデータのリストである。モーションリスト422は、例えば、各モーションを識別する情報(例えば、モーション名)のそれぞれに、モーションデータが対応付けられたリストである。配信プログラム423は、ユーザ端末100にて動画を再生するための動作指図データの、ユーザ端末100への配信を実現するためのプログラムである。
(サーバ200の機能的構成)
制御部210は、記憶部220に格納されたゲームプログラム231を実行することにより、サーバ200を統括的に制御する。例えば制御部210は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する。
制御部210は、ゲームプログラム231の記述に応じて、通信仲介部211、ログ生成部212、リスト生成部213として機能する。制御部210は、ゲームプレイおよび動作指図データの配信に係る各種情報の送受信の仲介、並びに、ゲームの進行の支援のために、図示しないその他の機能ブロックとしても機能することができる。
通信仲介部211は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する。例えば、通信仲介部211は、HMDセット1000から受信したゲーム進行情報をユーザ端末100へ送信する。ゲーム進行情報は、プレイヤによって操作されるキャラクタの動き、該キャラクタのパラメータ、該キャラクタが所持しているアイテムや武器、敵キャラクタなどの情報などを示すデータが含まれる。サーバ200は、ゲーム進行情報を、ゲームに参加している全てのユーザのユーザ端末100へ送信する。換言すれば、サーバ200は、共通のゲーム進行情報をゲームに参加している全てのユーザのユーザ端末100へ送信する。これにより、ゲームに参加している全てのユーザのユーザ端末100それぞれにおいて、HMDセット1000と同様にゲームが進行する。
また、例えば、通信仲介部211は、ユーザ端末100のいずれかから受信した、プレイヤによるゲームの進行を支援するための情報を、その他のユーザ端末100、および、HMDセット1000へ送信する。該情報は、一例として、プレイヤがゲームを有利に進行するためのアイテムであって、プレイヤ(キャラクタ)に提供されるアイテムを示すアイテム情報であってもよい。アイテム情報は、アイテムを提供したユーザを示す情報(ユーザ名、ユーザIDなど)を含む。また、通信仲介部211は、配信端末400からユーザ端末100への動作指図データの配信を仲介してもよい。
ログ生成部212は、HMDセット1000から受信するゲーム進行情報に基づいて、ゲーム進行のログを生成する。リスト生成部213は、ゲームプレイの終了後にユーザリスト234を生成する。詳細については後述するが、ユーザリスト234における各ユーザには、そのユーザが行ったプレイヤへの支援の内容を示すタグが関連付けられている。リスト生成部213は、ログ生成部212が生成したゲーム進行のログに基づいて、タグを生成し、該当するユーザに関連付ける。なお、リスト生成部213は、ゲームの運営者などがパーソナルコンピュータなどの端末装置を用いて入力した、各ユーザが行ったプレイヤへの支援の内容を、タグとして、該当するユーザに関連付けてもよい。これにより、各ユーザが行った支援の内容がより詳細なものとなる。なお、ユーザ端末100は、ユーザがゲームに参加する際、ユーザの操作に基づいて、ユーザを示す情報をサーバ200へ送信する。例えば、ユーザ端末100は、ユーザが入力したユーザIDをサーバ200へ送信する。つまり、サーバ200は、ゲームに参加している全てのユーザについて、各ユーザを示す情報を保持している。リスト生成部213は、該情報を用いて、ユーザリスト234を生成すればよい。
(HMDセット1000の機能的構成)
制御部310は、記憶部320に格納されたゲームプログラム331を実行することにより、HMDセット1000を統括的に制御する。例えば、制御部310は、ゲームプログラム331、および、プレイヤの操作に従って、ゲームを進行させる。また、制御部310は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部310は、情報の送受信を、サーバ200を介さずにユーザ端末100と直接行ってもよい。
制御部310は、ゲームプログラム331の記述に応じて、操作受付部311、表示制御部312、UI制御部313、アニメーション生成部314、ゲーム進行部315、仮想空間制御部316、および反応処理部317として機能する。制御部310は、実行されるゲームの性質に応じて、該ゲームに登場するキャラクタの制御などのために、図示しないその他の機能ブロックとしても機能することができる。
操作受付部311は、プレイヤの入力操作を検知し、受け付ける。操作受付部311は、HMD500、モーションセンサ520、コントローラ540などから入力された信号を受け付け、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。
UI制御部313は、モニタ51、ディスプレイ530などに表示させるユーザインターフェース(以下、UI)画像を制御する。UI画像は、プレイヤが、ゲームの進行上必要な入力をHMDセット1000に対して行うためのツール、または、ゲームの進行中に出力される情報をHMDセット1000から得るためのツールである。UI画像は、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。
アニメーション生成部314は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部314は、オブジェクト(例えば、プレイヤのアバターオブジェクト)がまるでそこにいるかのように動いたり、口を動かしたり、表情を変えたりする様子を表現したアニメーション等を生成してもよい。
ゲーム進行部315は、ゲームプログラム331、プレイヤによる入力操作、および、該入力操作に応じたアバターオブジェクトの動作などに基づいて、ゲームを進行する。例えば、ゲーム進行部315は、アバターオブジェクトが所定の動作を行った場合に、所定のゲーム処理を行う。また、例えば、ゲーム進行部315は、ユーザ端末100におけるユーザの操作を表す情報を受信し、当該ユーザの操作に基づいてゲーム処理を行ってもよい。また、ゲーム進行部315は、ゲームの進行に従ってゲーム進行情報を生成し、サーバ200へ送信する。該ゲーム進行情報は、サーバ200を介してユーザ端末100へ送信される。これにより、HMDセット1000におけるゲームの進行が、ユーザ端末100において共有される。換言すれば、HMDセット1000におけるゲームの進行と、ユーザ端末100におけるゲームの進行とが同期する。
仮想空間制御部316は、ゲームの進行に応じて、プレイヤに提供される仮想空間に関する各種の制御を行う。一例として、仮想空間制御部316は、各種オブジェクトを生成し、仮想空間に配置する。また、仮想空間制御部316は、仮想カメラを仮想空間に配置する。また、仮想空間制御部316は、ゲームの進行に応じて、仮想空間に配置した各種オブジェクトを動作させる。また、仮想空間制御部316は、ゲームの進行に応じて、仮想空間に配置した仮想カメラの位置、傾きを制御する。
表示制御部312は、モニタ51、ディスプレイ530に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部312は、仮想空間に配置された仮想カメラからの視界に基づく画像を、ゲーム画面として、モニタ51、ディスプレイ530に表示してもよい。また、表示制御部312は、アニメーション生成部314によって生成されたアニメーションを該ゲーム画面に含めてもよい。また、表示制御部312は、UI制御部313によって制御される上述のUI画像を、該ゲーム画面に重畳して描画してもよい。
反応処理部317は、ユーザ端末100のユーザによる、プレイヤのゲームプレイに対する反応についてフィードバックを受け付けて、これを、プレイヤに対して出力する。本実施形態では、例えば、ユーザ端末100は、ユーザの入力操作に基づいて、アバターオブジェクトに宛てたコメント(メッセージ)を作成することができる。反応処理部317は、該コメントのコメントデータを受け付けて、これを出力する。反応処理部317は、ユーザのコメントに対応するテキストデータを、モニタ51、ディスプレイ530に表示してもよいし、ユーザのコメントに対応する音声データを、図示しないスピーカから出力してもよい。前者の場合、反応処理部317は、上記テキストデータに対応する画像(すなわち、コメントの内容を含む画像)を、ゲーム画面に重畳して描画してもよい。
(ユーザ端末100の機能的構成)
制御部110は、記憶部120に格納されたゲームプログラム131を実行することにより、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム131、および、ユーザの操作に従って、ゲームを進行させる。また、制御部110は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部110は、情報の送受信を、サーバ200を介さずにHMDセット1000と直接行ってもよい。
制御部110は、ゲームプログラム131の記述に応じて、操作受付部111、表示制御部112、UI制御部113、アニメーション生成部114、ゲーム進行部115、仮想空間制御部116、および動画再生部117として機能する。制御部110は、実行されるゲームの性質に応じて、ゲームの進行のために、図示しないその他の機能ブロックとしても機能することができる。
操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。
例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。
UI制御部113は、ユーザの入力操作、および、受信したゲーム進行情報の少なくとも何れかに応じて、UIを構築するために表示部152に表示させるUI画像を制御する。UI画像は、ユーザが、ゲームの進行上必要な入力をユーザ端末100に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末100から得るためのツールである。UI画像は、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。
アニメーション生成部114は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。
ゲーム進行部115は、ゲームプログラム131、受信したゲーム進行情報、および、ユーザによる入力操作などに基づいて、ゲームを進行する。ゲーム進行部115は、ユーザによる入力操作により、所定のゲーム処理を行った場合、該ゲーム処理に関する情報を、サーバ200を介してHMDセット1000へ送信する。これにより、該所定のゲーム処理が、HMDセット1000において共有される。換言すれば、HMDセット1000におけるゲームの進行と、ユーザ端末100におけるゲームの進行とが同期する。所定のゲーム処理とは、例えば、アバターオブジェクトにアイテムを提供する処理であり、この例の場合、ゲーム処理に関する情報は、上述したアイテム情報である。
仮想空間制御部116は、ゲームの進行に応じて、ユーザに提供される仮想空間に関する各種の制御を行う。一例として、仮想空間制御部116は、各種オブジェクトを生成し、仮想空間に配置する。また、仮想空間制御部116は、仮想カメラを仮想空間に配置する。また、仮想空間制御部116は、ゲームの進行、具体的には、受信したゲーム進行情報に応じて、仮想空間に配置した各種オブジェクトを動作させる。また、仮想空間制御部316は、ゲームの進行、具体的には、受信したゲーム進行情報に応じて、仮想空間に配置した仮想カメラの位置、傾きを制御する。
表示制御部112は、表示部152に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部112は、ユーザに提供される仮想空間に配置された仮想カメラからの視界に基づく画像を、ゲーム画面として、表示部152に表示してもよい。また、表示制御部112は、アニメーション生成部114によって生成されたアニメーションを該ゲーム画面に含めてもよい。また、表示制御部112は、UI制御部113によって制御される上述のUI画像を、該ゲーム画面に重畳して描画してもよい。いずれにしても、表示部152に表示されるゲーム画面は、他のユーザ端末100、および、HMDセット1000にて表示されるゲーム画面と同様のゲーム画面である。
動画再生部117は、配信端末400から受信した動作指図データを解析(レンダリング)し、動画を再生する。
(配信端末400の機能的構成)
制御部410は、記憶部420に格納されたプログラム(不図示)を実行することにより、配信端末400を統括的に制御する。例えば、制御部410は、該プログラム、および、配信端末400のユーザ(本実施形態ではプレイヤ)の操作に従って、動作指図データを生成し、ユーザ端末100に配信する。また、制御部410は、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部410は、情報の送受信を、サーバ200を介さずにユーザ端末100と直接行ってもよい。
制御部410は、プログラムの記述に応じて、通信制御部411、表示制御部412、操作受付部413、音声受付部414、モーション特定部415、および動作指図データ生成部416として機能する。制御部410は、動作指図データの生成および配信のために、図示しないその他の機能ブロックとしても機能することができる。
通信制御部411は、サーバ200、または、サーバ200を介したユーザ端末100との情報の送受信を制御する。通信制御部411は、一例として、サーバ200からユーザリスト421を受信する。また、通信制御部411は、一例として、動作指図データをユーザ端末100へ送信する。
表示制御部412は、表示部452に対して、各要素によって実行された処理結果が反映された各種画面を出力する。表示制御部412は、一例として、受信したユーザリスト234を含む画面を表示する。また、表示制御部412は、一例として、配信する動作指図データに含まれる、アバターオブジェクトを動作させるためのモーションデータを、プレイヤに選択させるためのモーションリスト422を含む画面を表示する。
操作受付部413は、入力部151に対するプレイヤの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン45およびその他の入出力IF44を介したコンソールに対してプレイヤが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部410の各要素に出力する。
例えば、操作受付部413は、入力部451に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部413は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部413は、連続して検知されていた入力が途切れると、タッチスクリーン45から接触入力が解除されたことを検知する。
音声受付部414は、配信端末400の周囲で発生した音声を受け付け、該音声の音声データを生成する。音声受付部414は、一例として、プレイヤが発話した音声を受け付け、該音声の音声データを生成する。
モーション特定部415は、プレイヤの入力操作に応じて、モーションリスト422から、プレイヤが選択したモーションデータを特定する。
動作指図データ生成部416は、動作指図データを生成する。一例として、動作指図データ生成部416は、生成された音声データと、特定されたモーションデータとを含む動作指図データを生成する。
なお、図6に示すHMDセット1000、サーバ200、およびユーザ端末100の機能、並びに、図7に示す配信端末400の機能は一例にすぎない。HMDセット1000、サーバ200、ユーザ端末100、および配信端末400の各装置は、他の装置が備える機能の少なくとも一部を備えていてもよい。さらに、HMDセット1000、サーバ200、ユーザ端末100、および配信端末400以外のさらに別の装置をシステム1の構成要素とし、該別の装置にシステム1における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、HMDセット1000、サーバ200、ユーザ端末100、および配信端末400、並びに、それ以外の別の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。
<仮想空間の制御処理>
図8は、プレイヤに提供される仮想空間、および、ユーザ端末100のユーザに提供される仮想空間の制御処理の流れの一例を示すフローチャートである。図9は、ある実施の形態に従う、プレイヤに提供される仮想空間600A、および、プレイヤが視認する視界画像を示す図である。図10は、ある実施の形態に従う、ユーザ端末100のユーザに提供される仮想空間600B、および、ユーザが視認する視界画像を示す図である。なお以降、仮想空間600Aおよび600Bを区別する必要が無い場合、「仮想空間600」と記載する。
ステップS1において、プロセッサ30は、仮想空間制御部316として、図9に示す仮想空間600Aを規定する。プロセッサ30は、仮想空間データ(不図示)を用いて、仮想空間600Aを規定する。仮想空間データは、ゲームプレイ端末300に記憶されていてもよいし、プロセッサ30が、ゲームプログラム331に基づいて生成してもよいし、プロセッサ30が、サーバ200などの外部の装置から取得してもよい。
仮想空間600は、一例として、中心として定義された点の360度方向の全体を覆う全天球状の構造を有する。図9および図10では、説明を複雑にしないために、仮想空間600のうちの上半分の天球が例示されている。
ステップS2において、プロセッサ30は、仮想空間制御部316として、仮想空間600Aに、アバターオブジェクト610(キャラクタ)を配置する。アバターオブジェクト610は、プレイヤに関連付けられたアバターオブジェクトであり、プレイヤの入力操作に従って動作する。
ステップS3において、プロセッサ30は、仮想空間制御部316として、仮想空間600Aに、その他のオブジェクトを配置する。図9の例では、プロセッサ30は、オブジェクト631〜634を配置する。その他のオブジェクトは、例えば、ゲームプログラム331に従って動作するキャラクタオブジェクト(いわゆるノンプレイヤキャラクタ、NPC)、仮想手などの操作オブジェクト、ゲームの進行に従って配置される動物、植物、人工物、自然物などを模したオブジェクトなどを含み得る。
ステップS4において、プロセッサ30は、仮想空間制御部316として、仮想空間600Aに仮想カメラ620Aを配置する。プロセッサ30は、一例として、仮想カメラ620Aを、アバターオブジェクト610の頭部の位置に配置する。
ステップS5において、プロセッサ30は、視界画像650をモニタ51およびディスプレイ530に表示する。プロセッサ30は、仮想カメラ620Aの初期の位置と傾きとに応じて、仮想空間600Aにおける仮想カメラ620Aからの視界である視界領域640Aを定義する。そして、プロセッサ30は、視界領域640Aに対応する視界画像650を定義する。プロセッサ30は、視界画像650をモニタ51およびディスプレイ530に出力することによって、視界画像650をHMD500およびディスプレイ530に表示させる。
図9の例において、図9(A)に示すように、オブジェクト634の一部が視界領域640Aに含まれているため、視界画像650は、図9(B)に示すようにオブジェクト634の一部を含む。
ステップS6において、プロセッサ30は、初期配置情報を、サーバ200を介してユーザ端末100へ送信する。初期配置情報とは、仮想空間600Aにおける各種オブジェクトの初期の配置位置を示す情報である。図9の例において、初期配置情報は、アバターオブジェクト610、および、オブジェクト631〜634の初期の配置位置の情報を含む。初期配置情報は、ゲーム進行情報の1つであると表現することもできる。
ステップS7において、プロセッサ30は、仮想空間制御部316として、HMD500の動きに応じて仮想カメラ620Aを制御する。具体的には、プロセッサ30は、HMD500の動き、すなわち、プレイヤの頭部の姿勢に応じて、仮想カメラ620Aの向きおよび傾きを制御する。後述のように、プロセッサ30は、プレイヤが頭部を動かす(頭部の姿勢を変更する)と、この動きに合わせて、アバターオブジェクト610の頭部を動かす。プロセッサ30は、例えば、アバターオブジェクト610の視線の方向と、仮想カメラ620Aの視線の方向とが一致するように、仮想カメラ620Aの向きおよび傾きを制御する。ステップS8において、プロセッサ30は、仮想カメラ620Aの向きおよび傾きが変更されたことに応じて、視界画像650を更新する。
ステップS9において、プロセッサ30は、仮想空間制御部316として、プレイヤの動きに応じて、アバターオブジェクト610を動かす。一例として、プロセッサ30は、プレイヤが現実空間で移動したことに応じて、仮想空間600Aでアバターオブジェクト610を移動させる。また、プロセッサ30は、プレイヤが現実空間で頭部を動かしたことに応じて、仮想空間600Aでアバターオブジェクト610の頭部を動かす。
ステップS10において、プロセッサ30は、仮想空間制御部316として、仮想カメラ620Aを、アバターオブジェクト610に追随するように移動させる。つまり、仮想カメラ620Aは、アバターオブジェクト610が移動しても、常にアバターオブジェクト610の頭部の位置にある。
プロセッサ30は、仮想カメラ620Aの移動に応じて、視界画像650を更新する。つまり、プロセッサ30は、プレイヤの頭部の姿勢と、仮想空間600Aにおける仮想カメラ620Aの位置とに応じて、視界領域640Aを更新する。その結果、視界画像650が更新される。
ステップS11において、プロセッサ30は、アバターオブジェクト610の動作指図データを、サーバ200を介してユーザ端末100へ送信する。ここでの動作指図データは、仮想体験中(例えば、ゲームプレイ中)において、プレイヤの動作を取り込んだモーションデータ、プレイヤが発話した音声の音声データ、コントローラ540に対する入力操作の内容を示す操作データの少なくとも何れかを含む。プレイヤがゲームをプレイしている場合、動作指図データは、例えば、ゲーム進行情報としてユーザ端末100へ送信される。
ステップS7〜S11の処理は、プレイヤがゲームをプレイしている間、継続して繰り返し実行される。
ステップS21において、ユーザ3のユーザ端末100のプロセッサ10は、仮想空間制御部116として、図10に示す仮想空間600Bを規定する。プロセッサ10は、仮想空間データ(不図示)を用いて、仮想空間600Bを規定する。仮想空間データは、ユーザ端末100に記憶されていてもよいし、プロセッサ10が、ゲームプログラム131に基づいて生成してもよいし、プロセッサ10が、サーバ200などの外部の装置から取得してもよい。
ステップS22において、プロセッサ10は、初期配置情報を受信する。ステップS23において、プロセッサ10は、仮想空間制御部116として、初期配置情報に応じて各種オブジェクトを仮想空間600Bに配置する。図10の例の場合、各種オブジェクトは、アバターオブジェクト610、および、オブジェクト631〜634である。
ステップS24において、プロセッサ10は、仮想空間制御部116として、仮想空間600Bに仮想カメラ620Bを配置する。プロセッサ10は、一例として、仮想カメラ620Bを、図10(A)に示す位置に配置する。
ステップS25において、プロセッサ10は、視界画像660を表示部152に表示する。プロセッサ10は、仮想カメラ620Bの初期の位置と傾きとに応じて、仮想空間600Bにおける仮想カメラ620Bからの視界である視界領域640Bを定義する。そして、プロセッサ10は、視界領域640Bに対応する視界画像660を定義する。プロセッサ10は、視界画像660を表示部152に出力することによって、視界画像660を表示部152に表示させる。
図10の例において、図10(A)に示すように、アバターオブジェクト610およびオブジェクト631が視界領域640Bに含まれているため、視界画像660は、図10(B)に示すようにアバターオブジェクト610およびオブジェクト631を含む。
ステップS26において、プロセッサ10は、動作指図データを受信する。ステップS27において、プロセッサ10は、仮想空間制御部116として、動作指図データに応じて、仮想空間600Bでアバターオブジェクト610を動かす。換言すれば、プロセッサ10は、リアルタイムレンダリングにより、アバターオブジェクト610が動作している映像を再生する。
ステップS28において、プロセッサ10は、仮想空間制御部116として、操作受付部111として受け付けたユーザの操作に応じて仮想カメラ620Bを制御する。ステップS29において、プロセッサ10は、仮想カメラ620Bの仮想空間600Bにおける位置、仮想カメラ620Bの向きおよび傾きが変更されたことに応じて、視界画像660を更新する。なお、ステップS28において、プロセッサ10は、アバターオブジェクト610の動き、例えば、アバターオブジェクト610の移動や、向きの変更に応じて仮想カメラ620Bを自動的に制御してもよい。例えば、プロセッサ10は、常にアバターオブジェクト610を正面から撮影するように自動的に仮想カメラ620Bを移動させたり、向きおよび傾きを変更したりしてもよい。また、一例として、プロセッサ10は、アバターオブジェクト610の動きに応じて、常にアバターオブジェクト610を後方から撮影するように自動的に仮想カメラ620Bを移動させたり、向きおよび傾きを変更したりしてもよい。
このように、仮想空間600Aにおいて、アバターオブジェクト610は、プレイヤの動きに応じて動作する。この動作を示す動作指図データは、ユーザ端末100に送信される。仮想空間600Bにおいて、アバターオブジェクト610は、受信した動作指図データに応じて動作する。これにより、仮想空間600Aと仮想空間600Bとにおいて、アバターオブジェクト610は同様の動作を行う。換言すれば、ユーザ3は、ユーザ端末100を用いて、プレイヤの動作に応じたアバターオブジェクト610の動作を視認することができる。
<ゲーム概要>
図11は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体的には、プレイヤがプレイしている、システム1が実行するゲーム(本ゲーム)のゲーム画面の一例を示す図である。
本ゲームは、一例として、銃、ナイフなどの武器を操作するアバターオブジェクト610と、NPCである複数の敵オブジェクト671とを仮想空間600に登場させ、アバターオブジェクト610に敵オブジェクト671との対戦を行わせるゲームである。アバターオブジェクト610の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト671の残数等の各種ゲームパラメータは、ゲームの進行に応じて更新される。
本ゲームには、複数のステージが用意されており、プレイヤは、各ステージに関連付けられている所定の達成条件を成立させることにより、当該ステージをクリアすることができる。所定の達成条件としては、例えば、出現する敵オブジェクト671をすべて倒すことや、出現する敵オブジェクト671のうちボスオブジェクトを倒すこと、所定のアイテムを獲得すること、所定位置に到達することなどにより成立する条件を含むものであってもよい。該達成条件は、ゲームプログラム131内で定義されている。なお、本ゲームでは、ゲームの内容に即し、達成条件が成立された場合にプレイヤはステージをクリア、換言すれば、アバターオブジェクト610の敵オブジェクト671への勝利(アバターオブジェクト610と敵オブジェクト671との間の勝敗)が決定される。これに対し、例えば、システム1で実行されるゲームがレースゲーム等である場合、ゴールに到達するという条件が成立した場合に、アバターオブジェクト610の順位が決定される。
本ゲームでは、HMDセット1000及び複数のユーザ端末100の間で仮想空間を共有するために、ゲーム進行情報が、所定時間毎に複数のユーザ端末100にライブ配信される。この結果、ゲームを視聴中のユーザ端末100のタッチスクリーン15には、ユーザ端末100に対応する仮想カメラ620Bによって規定される視界領域の視界画像が表示される。また、視界画像の右上段および左上段には、アバターオブジェクト610の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト671の残数等を表すパラメータ画像が重畳的に表示される。この視界画像は、ゲーム画面と表現することもできる。
ゲーム進行情報は、上述したとおり、プレイヤの動作を取り込んだモーションデータ、プレイヤが発話した音声の音声データ、コントローラ540に対する入力操作の内容を示す操作データを含む。これらのデータはすなわち、アバターオブジェクト610の位置、姿勢、向きなどを特定するための情報、敵オブジェクト671の位置、姿勢、向きなどを特定する情報、その他オブジェクト(例えば、障害物オブジェクト672、673)の位置などを特定する情報である。プロセッサ10は、ゲーム進行情報を解析(レンダリング)することにより、各オブジェクトの位置、姿勢、向きなどを特定する。
ゲーム情報132は、アバターオブジェクト610、敵オブジェクト671、障害物オブジェクト672、673等の各種オブジェクトのデータを含む。プロセッサ10は、該データと、ゲーム進行情報の解析結果とを用いて、各オブジェクトの位置、姿勢、向きなどを更新する。これにより、ゲームが進行し、仮想空間600Bにおける各オブジェクトは、仮想空間600Aにおける各オブジェクトと同様に動く。具体的には、仮想空間600Bにおいて、アバターオブジェクト610を含む各オブジェクトは、ユーザ端末100に対するユーザからの操作の有無に関わらず、ゲーム進行情報に基づいて動作する。
ユーザ端末100のタッチスクリーン15においては、一例として、UI画像701および702が、視界画像に重畳して表示される。UI画像701は、アバターオブジェクト610を支援するためのアイテム投入操作をユーザ3から受け付けるUI画像711を、タッチスクリーン15に表示するための操作を受け付けるUI画像である。UI画像702は、アバターオブジェクト610(換言すれば、プレイヤ4)に対するコメントを入力し、送信するための操作をユーザ3から受け付けるUI画像(後述)を、タッチスクリーン15に表示するための操作を受け付けるUI画像である。UI画像701および702が受け付ける操作は、例えば、UI画像701および702をタップする操作であってもよい。
UI画像701がタップされると、UI画像711が、視界画像に重畳して表示される。UI画像711は、例えば、マガジンのアイコンが描かれたUI画像711A、救急箱のアイコンが描かれたUI画像711B、三角コーンのアイコンが描かれたUI画像711C、バリケードのアイコンが描かれたUI画像711Dを含む。アイテム投入操作は、例えば、いずれかのUI画像をタップする操作に相当する。
一例として、UI画像711Aがタップされると、アバターオブジェクト610が使用する銃の残弾数が増加する。UI画像711Bがタップされると、アバターオブジェクト610の体力が回復する。UI画像711Cおよび711Dがタップされると、敵オブジェクト671の移動を妨害する障害物オブジェクト672、673が仮想空間に配置される。障害物オブジェクト672、673は、一方が他方に比べて、敵オブジェクト671の移動をより妨害するものであってもよい。
プロセッサ10は、アイテム投入操作が行われたことを示すアイテム投入情報を、サーバ200へ送信する。アイテム投入情報には、アイテム投入操作により指定されたアイテムの種別を特定するための情報が少なくとも含まれる。アイテム投入情報には、アイテムが配置される位置を示す情報など、アイテムに関するその他の情報が含まれていてもよい。アイテム投入情報は、サーバ200を介して、他のユーザ端末100、および、HMDセット1000へ送信される。
図12は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体的には、本ゲームのゲーム画面の一例を示す図であり、ゲームプレイ中のプレイヤとユーザ端末100とのコミュニケーションについて説明するための図である。
図12(A)の例において、ユーザ端末100は、アバターオブジェクト610に発話691を実行させている。具体的には、ユーザ端末100は、ゲーム進行情報に含まれる音声データに従って、アバターオブジェクト610に発話691を実行させている。発話691の内容は、プレイヤ4が発話した「弾が無いよー!」というものである。すなわち、発話691の内容は、マガジンが0、銃に装填した銃弾が1となったことにより、敵オブジェクト671を攻撃する手段を失いそうであることを各ユーザに伝えるものである。
なお、図12(A)では、アバターオブジェクト610の発話を視覚的に示すため吹き出しを用いているが、実際は、ユーザ端末100のスピーカから音声が出力される。なお、音声出力とともに、図12(A)に示す吹き出し(すなわち、音声の内容のテキストを含む吹き出し)が視界画像中に表示されてもよい。これは、後述する発話692でも同様である。
UI画像702に対するタップ操作を受け付けると、ユーザ端末100は、図12(B)に示すように、UI画像705および706(メッセージUI)を視界画像に重畳して表示する。UI画像705は、アバターオブジェクト610(換言すれば、プレイヤ)に対するコメントを表示するUI画像である。UI画像706は、入力されたコメントを送信するためコメント送信操作をユーザ3から受け付けるUI画像である。
ユーザ端末100は、一例として、UI画像705へのタップ操作を受け付けると、キーボードを模したUI画像(不図示、以下、単に「キーボード」と記載)をタッチスクリーン15に表示させる。ユーザ端末100は、キーボードに対するユーザの入力操作に応じたテキストを、UI画像705に表示させる。図12(B)の例では、「マガジン送るね」というテキストがUI画像705に表示されている。
ユーザ端末100は、テキスト入力後に、一例として、UI画像706へのタップ操作を受け付けると、入力した内容(テキストの内容)を示す情報と、ユーザを示す情報とを含むコメント情報をサーバ200へ送信する。コメント情報は、サーバ200を介して、他のユーザ端末100、および、HMDセット1000へ送信される。
UI画像703Aは、コメントを送信したユーザのユーザ名を示すUI画像であり、UI画像704Aは、該ユーザが送信したコメントの内容を示すUI画像である。図12(B)の例では、ユーザ名が「BBBBB」であるユーザが、自身のユーザ端末100を用い、「危ない!」という内容のコメント情報を送信したことにより、UI画像703AおよびUI画像704Aが表示されている。UI画像703AおよびUI画像704Aは、本ゲームに参加しているすべてのユーザ端末100のタッチスクリーン15、および、HMD500のモニタ51に表示される。なお、UI画像703Aおよび704Aは、1つのUI画像であってもよい。すなわち、1つのUI画像にユーザ名とコメントの内容とが含まれていてもよい。
図12(C)の例では、図12に示すユーザ端末100のユーザである、「AAAAA」というユーザ名のユーザが、上述したとおりコメントを入力し、送信したことにより、タッチスクリーン15にUI画像703Bおよび704Bが表示されている。UI画像703Bにはユーザ名「AAAAA」が含まれており、UI画像704Bには、図12(B)の例において入力された「マガジン送るね!」とのコメントが含まれている。
また、図12(C)の例は、ユーザ「AAAAA」がさらに、UI画像701へのタップ操作を入力し、UI画像711をタッチスクリーン15に表示させ、UI画像711Aへのタップ操作を入力した後の視界画像611である。つまり、ユーザ「AAAAA」のユーザ端末100から、他のユーザ端末100およびHMDセット1000に、マガジンを示すアイテム投入情報が送信された結果、ユーザ端末100およびHMDセット1000は、演出オブジェクト674(後述)を仮想空間600に配置している。一例として、ユーザ端末100およびHMDセット1000は、アイテム投入情報にて示された経過時間が経過した後に、演出オブジェクト674に関する演出を実行し、アイテムオブジェクトの効果を発動させる処理を実行する。
図12(D)の例では、アイテムオブジェクトの効果を発動させる処理の実行により、マガジンの数が0から1に増加している。この結果、プレイヤは、ユーザ「AAAAA」に対して、「ありがとう!」と発話し、該発話の音声データが、各ユーザ端末100に送信される。これにより、各ユーザ端末100は、アバターオブジェクト610の発話692として、「ありがとう!」という音声を出力する。
以上のように、本ゲームにおいては、プレイヤの発話に基づくアバターオブジェクト610の発話音声の出力と、各ユーザによるコメントの入力とにより、ユーザとアバターオブジェクト610とのコミュニケーションが実現される。
(ゲームプレイ端末300におけるゲーム進行処理)
図13は、ゲームプレイ端末300で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
ステップS31において、プロセッサ30は、ゲーム進行部315として、ゲームプログラム331とプレイヤの動きとに基づいてゲームを進行させる。ステップS32において、プロセッサ30は、ゲーム進行情報を生成し、ユーザ端末100へ配信する。具体的には、プロセッサ30は、生成したゲーム進行情報を、サーバ200を介して、各ユーザ端末100へ送信する。
ステップS33において、プロセッサ30は、アイテム投入情報を受信すると(S33でYES)、ステップS34において、アイテム投入情報に基づいて、アイテムオブジェクトを仮想空間600Aに配置する。一例として、プロセッサ30は、アイテムオブジェクトの配置の前に、演出オブジェクト674を仮想空間600Aに配置する(図11(C)参照)。演出オブジェクト674は、例えば、プレゼント箱を模したオブジェクトであってもよい。プロセッサ30は、一例として、アイテム投入情報にて示された経過時間が経過した後に、演出オブジェクト674に関する演出を実行してもよい。該演出は、例えば、プレゼント箱の蓋が開くアニメーションであってもよい。プロセッサ30は、該アニメーションの実行の後、アイテムオブジェクトの効果を発動させる処理を実行する。例えば、図11(D)の例では、障害物オブジェクト673を配置する。
プロセッサ30は、アニメーションの実行の後、タップ操作されたUI画像に対応するアイテムオブジェクトを仮想空間600Aに配置してもよい。例えば、UI画像711Aに対してタップ操作が行われた場合、プロセッサ30は、アニメーションの実行の後、マガジンを示すマガジンオブジェクトを仮想空間600Aに配置する。また、UI画像711Bに対してタップ操作が行われた場合、プロセッサ30は、アニメーションの実行の後、救急箱を示す救急箱オブジェクトを仮想空間600Aに配置する。プロセッサ30は、例えば、マガジンオブジェクトまたは救急箱オブジェクトの位置に、アバターオブジェクト610が移動した場合に、マガジンオブジェクトまたは救急箱オブジェクトの効果を発動させる処理を実行してもよい。
プロセッサ30は、ゲームが終了するまで、ステップS31〜S34の処理を継続し、繰り返す。ゲームが終了した場合、例えば、プレイヤがゲームを終了するための所定の入力操作を入力した場合(ステップS35でYES)、図13に示す処理は終了する。
(ユーザ端末100におけるゲーム進行処理)
図14は、ユーザ端末100で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
ステップS41において、プロセッサ10は、ゲーム進行情報を受信する。ステップS42において、プロセッサ10は、ゲーム進行部115として、ゲーム進行情報に基づいてゲームを進行させる。
ステップS43において、プロセッサ10が、ユーザ3によるアイテム投入操作を受け付けると(ステップS43にてYES)、ステップS44において、プロセッサ10は、仮想通貨を消費し、演出オブジェクト674を仮想空間600Bに配置する。ここで、仮想通貨は、ゲームへの参加の前、あるいは、ゲームへの参加中に、ユーザ3がプロセッサ10に対し所定の操作を行うことにより購入(本ゲームに対して課金)されるものであってもよいし、所定の条件を満たした場合にユーザ3に付与されるものであってもよい。所定の条件とは、本ゲームにおけるクエストのクリア等、本ゲームへの参加が必要なものであってもよいし、アンケートに答える等、本ゲームへの参加が不要なものであってもよい。仮想通貨の金額(仮想通貨の所有量)は、一例として、ゲーム情報132としてユーザ端末100に記憶される。
ステップS45において、プロセッサ10は、アイテム投入情報をサーバ200へ送信する。アイテム投入情報は、サーバ200を介してゲームプレイ端末300へ送信される。
プロセッサ10は、演出オブジェクト674の配置後、所定時間が経過すると、アイテムオブジェクトを仮想空間600Aに配置する。図11の例では、障害物オブジェクト673を配置する。つまり、ユーザ3が、UI画像711Cへのタップ操作を入力することにより、所定量の仮想通貨が消費され、障害物オブジェクト673が配置される。
プロセッサ10は、ゲームが終了するまで、ステップS41〜S45の処理を継続し、繰り返す。ゲームが終了した場合、例えば、プレイヤがゲームを終了するための所定の入力操作を行った場合や、ユーザ3が、ゲームから途中退席するための所定の入力操作を行った場合(ステップS46でYES)、図14に示す処理は終了する。
(サーバ200におけるゲーム進行処理)
図15は、サーバ200で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
ステップS51において、プロセッサ20は、ゲーム進行情報をゲームプレイ端末300から受信する。ステップS52において、プロセッサ20は、ログ生成部212として、ゲーム進行のログ(以下、プレイログ)を更新する。なお、プレイログは、一例として、ゲームプレイ端末300から初期配置情報を受信したとき、プロセッサ20が生成する。
ステップS53において、プロセッサ20は、受信したゲーム進行情報を、各ユーザ端末100へ送信する。
ステップS54において、アイテム投入情報をいずれかのユーザ端末100から受信した場合(ステップS54にてYES)、ステップS55において、プロセッサ20は、ログ生成部212としてプレイログを更新する。ステップS56において、プロセッサ20は、受信したアイテム投入情報をゲームプレイ端末300へ送信する。
プロセッサ20は、ゲームが終了するまで、ステップS51〜S56の処理を継続し、繰り返す。ゲームが終了した場合、例えば、ゲームプレイ端末300から、ゲームが終了したことを示す情報を受信した場合(ステップS57でYES)、ステップS58において、プロセッサ20は、リスト生成部213として、プレイログからゲームに参加したユーザのリスト(ユーザリスト234)を生成する。プロセッサ20は、生成したユーザリスト234を、サーバ200に記憶する。
図16は、ユーザリスト234の一具体例を示す図である。「ユーザ」のカラムには、ゲームに参加した各ユーザを示す情報(例えば、ユーザ名)が格納されている。「タグ」のカラムには、各ユーザがプレイヤに対して行った支援に基づいて生成された情報(タグ)が格納されている。図16の例において、「タグ」のカラムに格納されたタグのうち、鍵括弧を有さないものは、プロセッサ20が自動生成した情報であり、鍵括弧を有するものは、ゲームの運営者が手動で入力した情報である。
図16の例において、ユーザ「AAAAA」には、マガジン、10F、ボス、「マガジンのプレゼントによりボスに勝利」という情報が対応付けられている。これは、例えば、10Fというステージでのボス戦において、ユーザ「AAAAA」がマガジンを投入し、その投入されたマガジンの銃弾でアバターオブジェクト610がボスに勝利したことを示している。
また、ユーザ「BBBBB」には、救急箱、3F、ザコ、「ゲームオーバー寸前で回復」という情報が対応付けられている、これは、例えば、3Fというステージのザコ敵との戦闘において、ユーザ「BBBBB」が救急箱を投入し、その結果、アバターオブジェクト610の体力が0になる(ゲームオーバーになる)寸前で体力が回復したことを示している。
また、ユーザ「CCCCC」には、バリケード、5F、ザコ、「バリケードでゾンビを二人足止め」という情報が対応付けられている。これは、例えば、5Fというステージのザコ敵との戦闘において、ユーザ「CCCCC」がバリケード(図11における障害物オブジェクト672)を投入し、その結果、二人のザコ敵の足止めに成功したことを示している。
図16の例では、各ユーザ3のユーザ名に対し、行った支援が1つ対応付けられているが、支援を複数回行なったユーザ3のユーザ名には、複数回の支援それぞれのタグが対応付けられる。ユーザリスト234において、該それぞれのタグは区別されていることが好ましい。これにより、ゲーム終了後に、配信端末400を用いてユーザリスト421を参照するプレイヤが、各支援の内容を正確に把握できる。
<動作指図データの配信>
(配信端末400における配信処理)
図17は、配信端末400で実行される配信処理の流れの一例を示すフローチャートである。図18は、配信端末400に表示される画面の一具体例を示す図である。図19は、配信端末に表示される画面の他の具体例を示す図である。
ステップS61において、プロセッサ40は、操作受付部413として、ゲームに参加したユーザのリスト(ユーザリスト234)を表示するための第1操作を受け付ける。図18(A)に示すダウンロード画面721は、ユーザリスト234をサーバ200からダウンロードし、表示部452に表示させるための画面である。ダウンロード画面721は、一例として、図17に示す配信処理を実行するアプリケーションの起動操作を、配信端末400に入力した直後に表示される画面である。
ダウンロード画面721は、一例として、UI画像722および723を含む。UI画像722は、ユーザリスト234をダウンロードするための操作、すなわち、上記第1操作を受け付ける。第1操作は、例えば、UI画像722をタップする操作であってもよい。UI画像723は、アプリケーションを終了するための操作を受け付ける。該操作は、例えば、UI画像723をタップする操作であってもよい。
UI画像722に対するタップ操作を受け付けると、ステップS62において、プロセッサ40は、通信制御部411として、ユーザリスト234をサーバ200から取得(受信)する。ステップS63において、プロセッサ40は、表示制御部412として、ユーザリスト234を表示部452に表示させる。具体的には、プロセッサ40は、ユーザリスト234に基づいて生成されたユーザリスト画面を、表示部452に表示させる。ユーザリスト画面は、一例として、図18(B)に示すユーザリスト画面731であってもよい。ユーザリスト画面731は、ユーザリスト234における各レコードに対応するレコード画像からなる。図18(B)の例では、レコード画像として、レコード画像732A〜732Cを記載しているが、レコード画像の数は3つに限定されない。図18(B)の例において、ユーザリスト234におけるレコードの数が3より多い(すなわち、ゲームに参加したユーザの人数が3人より多い)場合、プレイヤは、例えば画面をスクロールする操作(例えば、ドラッグ操作やフリック操作)をタッチスクリーン45に入力することにより、他のレコード画像を表示部452に表示させることができる。
一例として、レコード画像732A〜732Cは、それぞれ、ユーザ名733A〜733C、タグ情報734A〜734C、および、アイコン735A〜735Cを含む。以降、レコード画像732A〜732C、ユーザ名733A〜733C、タグ情報734A〜734C、および、アイコン735A〜735Cについて、区別する必要が無い場合、それぞれ、「レコード画像732」、「ユーザ名733」、「タグ情報734」、「アイコン735」と記載する。
ユーザ名733は、ユーザリスト234において、「ユーザ」のカラムに格納されている、ゲームに参加した各ユーザを示す情報である。タグ情報734は、ユーザリスト234において、ゲームに参加した各ユーザを示す情報のそれぞれに対応付けられているタグを示す情報である。例えば、レコード画像732Aは、ユーザ名733Aとして、「AAAAA」を含む。このため、レコード画像732Aは、タグ情報734Aとして、ユーザリスト234において「AAAAA」に対応付けられている、『マガジン、10F、ボス、「マガジンのプレゼントによりボスに勝利」』を含む。アイコン735は、例えば、ユーザが事前に設定した画像である。
なお、プロセッサ40は、受信したユーザリストを配信端末400に記憶してもよい(図7のユーザリスト421)。ダウンロード画面721は、ユーザリスト421を表示部452に表示するためのUI画像(不図示)を含んでいてもよい。この例において、該UI画像がタップされた場合、プロセッサ40は、ユーザリスト234のダウンロードを行わず、ユーザリスト421を読み出し、該ユーザリスト421からユーザリスト画面を生成し、表示部452に表示させる。
ステップS64において、プロセッサ40は、操作受付部413として、ユーザリスト画面731に含まれるユーザの何れかを選択するための第2操作を受け付ける。第2操作は、一例として、ユーザリスト画面731におけるレコード画像732の何れかをタップする操作であってもよい。図18(B)の例では、プレイヤは、レコード画像732Aへのタップ操作を入力している。すなわち、プレイヤは、動作指図データを配信するユーザとしてユーザ「AAAAA」を選択している。
レコード画像732に対するタップ操作を受け付けると、ステップS65において、プロセッサ40は、表示制御部412として、モーションリスト422を表示部452に表示させる。具体的には、プロセッサ40は、モーションリスト422に基づいて生成されたモーションリスト画面を、表示部452に表示させる。モーションリスト画面は、一例として、図19に示すモーションリスト画面741であってもよい。モーションリスト画面741は、モーションリスト422における各レコードに対応するレコード画像からなる。図19の例では、レコード画像として、レコード画像742A〜742Cを記載しているが、レコード画像の数は3つに限定されない。図19の例において、モーションリスト422におけるレコードの数が4より多い場合、プレイヤは、例えば画面をスクロールする操作(例えば、ドラッグ操作やフリック操作)をタッチスクリーン45に入力することにより、他のレコード画像を表示部452に表示させることができる。
一例として、レコード画像742A〜742Cは、それぞれ、モーション名743A〜743C、モーション画像744A〜744C、および、UI画像745A〜745Cを含む。以降、レコード画像742A〜742C、モーション名743A〜743C、モーション画像744A〜744C、および、UI画像745A〜745Cについて、区別する必要が無い場合、それぞれ、「レコード画像7432」、「モーション名743」、「モーション画像744」、「UI画像745」と記載する。
モーション名743は、モーションリスト422に格納されているモーションを識別する情報である。モーション画像744は、モーションリスト422において、各モーション名に対応付けられているモーションデータから生成される画像である。プロセッサ40は、一例として、各モーションデータにおける最初の姿勢をとるアバターオブジェクト610の画像を、モーション画像744とてレコード画像742に含める。モーション画像744は、プレイヤによる所定の操作(例えば、モーション画像744に対するタップ操作)を受け付けるUI画像であってもよい。プロセッサ40は、該所定の操作を受け付けた場合、モーションデータに基づいてアバターオブジェクト610が動作するモーション動画を再生してもよい。プロセッサ40は、モーション動画が終了すると、自動的にモーションリスト画面741を再表示してもよい。
なお、レコード画像742は、モーション画像744に代えて、例えば、「モーション再生」とのテキストを含むUI画像を含んでもよい。
ステップS66において、プロセッサ40は、操作受付部413として、モーションを選択する第3操作を受け付ける。第3操作は、一例として、UI画像745へのタップ操作であってもよい。つまり、UI画像745は、各レコード画像742に対応するモーションデータを選択する操作を受け付ける。第3操作を受け付けたことにより、プロセッサ40は、モーション特定部415として、プレイヤが選択したモーションデータを特定する。
ステップS67において、プロセッサ40は、表示制御部412および音声受付部414として、アバターオブジェクト610が、選択されたモーションデータに基づき動作するモーション動画を再生しながら、プレイヤの音声入力を受け付ける。
図20は、プレイヤ4による音声入力の一具体例を示す図である。図20に示すように、プレイヤ4は、モーション動画810Aを再生しながら、発話音声820Aを入力している。この発話音声820Aは、ユーザ名が「AAAAA」であるユーザ3(以下、ユーザ3A)宛の発話音声である。つまり、図20の例において、プレイヤ4は、ステップS64にて、ユーザ3A(第1ユーザ)を選択し、該ユーザ3A宛の動作指図データを作成している。なお、ユーザ3Aが使用するユーザ端末100は、ユーザ端末100Aであるとする。
発話音声820Aは、ユーザ3A宛の発話音声であるため、該ユーザ3Aがアバターオブジェクト610(換言すれば、プレイヤ4)に対して行った支援の内容に基づく発話音声となっている。具体的には、ユーザ3Aは、10Fというステージでのボス戦において、マガジンを投入し、その投入されたマガジンの銃弾でアバターオブジェクト610がボスに勝利している。このため、発話音声820Aは、「ボス戦でマガジンをプレゼントしてくれてありがとう!タイミングも完璧だったね!AAAAAさんのおかげでクリアできたよ!」という内容である。このように、発話音声は、ユーザ3がゲームにおいて行った支援の内容と、ユーザ3への感謝とを含むものであることが好ましい。
ある局面において、プレイヤ4は、音声入力を開始する前、すなわち、第3操作を配信端末400へ入力する前に、ユーザ3宛の発話内容を作成する。別の局面において、ユーザ3宛の発話内容は、プロセッサ40が自動生成してもよい。また、プロセッサ40は、第2操作によって選択されたユーザ3に対応付けられたタグを、モーション動画810Aに重畳して表示させてもよい。
プロセッサ40は、受け付けた音声を音声データに変換する。ステップS68において、プロセッサ40は、動作指図データ生成部416として、該音声データと、選択されたモーションのモーションデータとを含む動作指図データを生成する。
ステップS69において、プロセッサ40は、通信制御部411として、生成した動作指図データを選択されたユーザ3(図20の例ではユーザ3A)のユーザ端末100(第1コンピュータ)に配信する。図21は、配信端末400に表示される画面のさらなる別の具体例を示す図である。プロセッサ40は、ステップS68の実行後、表示制御部412として、配信画面を表示部452に表示させる。配信画面は、一例として、図21(A)に示す配信画面751であってもよい。配信画面751は、UI画像752、および、モーション画像753Aを含む。また、配信画面751は、図21(A)に示すように、動作指図データの配信先のユーザを示す情報を含むものであってもよい。
UI画像752は、動作指図データを選択されたユーザ3へ配信するための操作を受け付ける。該操作は、例えば、UI画像752へのタップ操作であってもよい。モーション画像753Aは、生成した動作指図データに基づく動画、すなわち、ユーザ3A用に生成した動作指図データに基づく動画を再生するための操作を受け付けるUI画像である。該操作は、例えば、モーション画像753Aへのタップ操作であってもよい。なお、生成した動画を再生するための操作を受け付けるUI画像は、モーション画像753Aに限定されない。例えば、「動画再生」とのテキストを含むUI画像であってもよい。プロセッサ40は、動画が終了すると、自動的に配信画面751を再表示してもよい。
配信画面751は、音声入力の受け付けに戻るための操作を受け付けるUI画像をさらに含むことが好ましい。該操作は、例えば、該UI画像へのタップ操作であってもよい。配信画面751が該UI画像を含むことにより、プレイヤ4は、例えば、発話する内容を間違えた場合など、音声入力に失敗した場合に、再度音声入力を行うことができる。なお、該UI画像は、モーションデータの選択に戻るための操作を受け付けるUI画像であってもよい。
UI画像752に対するタップ操作を受け付けると、プロセッサ40は、ユーザ3Aを示す情報とともに、動作指図データをサーバ200へ送信する。サーバ200は、ユーザ3Aを示す情報に基づいて、動作指図データの送信先のユーザ端末100を特定し、該動作指図データを特定したユーザ端末100(すなわち、ユーザ端末100A)へ送信する。
プロセッサ40は、動作指図データの送信が終了した場合、一例として、図21(B)に示す配信完了画面761を表示部452に表示させてもよい。配信完了画面761は、一例として、UI画像762および763を含む。また、配信完了画面761は、図21(B)に示すように、動作指図データの送信が完了したことを示すテキストを含むものであってもよい。
UI画像762は、別のユーザ3宛の動作指図データの作成を開始するための操作を受け付ける。該操作は、例えば、UI画像762をタップする操作であってもよい。プロセッサ40は、該タップ操作を受け付けると、ユーザリスト画面を、表示部452に再度表示させる。すなわち、該タップ操作を受け付けた場合、配信処理は、ステップS63に戻る。このとき、プロセッサ40は、配信端末400に記憶したユーザリスト421に基づいて、ユーザリスト画面を生成し、表示部452に表示させてもよい。UI画像763は、アプリケーションを終了するための操作を受け付ける。該操作は、例えば、UI画像763をタップする操作であってもよい。該操作を受け付けると、配信処理は終了する。
図20、図21を参照して説明した例では、図21(C)に示すように、配信端末400は、ユーザ3A(ユーザ名が「AAAAA」のユーザ3)宛の動画の動作指図データを、ユーザ端末100Aのみに送信する。
図22は、プレイヤ4による音声入力の他の具体例を示す図である。図22に示すように、プレイヤ4は、モーション動画810Bを再生しながら、発話音声820Bを入力している。この発話音声820Bは、ユーザ名が「BBBBB」であるユーザ3(以下、ユーザ3B)宛の発話音声である。つまり、図22の例において、プレイヤ4は、ステップS64にて、ユーザ3Bに対応するレコード画像732Bへのタップ操作を入力し、ユーザ3B宛の動作指図データを作成している。なお、ユーザ3Bが使用するユーザ端末100は、ユーザ端末100Bであるとする。
発話音声820Bは、ユーザ3B宛の発話音声であるため、該ユーザ3Bがアバターオブジェクト610(換言すれば、プレイヤ4)に対して行った支援の内容に基づく発話音声となっている。具体的には、ユーザ3Bは、3Fというステージのザコ敵との戦闘において、ユーザ「BBBBB」が救急箱を投入し、その結果、アバターオブジェクト610の体力が0になる(ゲームオーバーになる)寸前で体力が回復している。このため、発話音声820Bは、「BBBBBさんがプレゼントしてくれた救急箱のおかげで、3Fでゲームオーバーにならずにすんだよ。本当にありがとう!」という内容である。
図23は、配信端末400に表示される画面のさらなる別の具体例を示す図である。図23(A)に示す配信画面751は、UI画像752、および、モーション画像753Bを含む。モーション画像753Bは、タップ操作を受け付けると、ユーザ3B用に生成した動作指図データに基づく動画を再生する。
UI画像752に対するタップ操作を受け付けると、プロセッサ40は、ユーザ3Bを示す情報とともに、動作指図データをサーバ200へ送信する。サーバ200は、ユーザ3Bを示す情報に基づいて、動作指図データの送信先のユーザ端末100を特定し、該動作指図データを特定したユーザ端末100(すなわち、ユーザ端末100B)へ送信する。
図22、図23を参照して説明した例では、図23(C)に示すように、配信端末400は、ユーザ3B(ユーザ名が「BBBBB」のユーザ3)宛の動画の動作指図データを、ユーザ端末100Bのみに送信する。
以上のように、動作指図データに含まれる音声データに基づく音声の内容は、ユーザ3が直近のゲームへの参加において、プレイヤ4に対して行った支援の内容に基づくものとなる。該支援の内容はユーザ3ごとに異なるため、音声の内容は、ユーザ3ごとに異なる内容となる。つまり、ゲームの終了後、ゲームに参加したユーザ3の少なくとも一部のユーザ端末100には、それぞれ異なる内容の音声を含む動作指図データが送信される。
また、図22の例におけるアバターオブジェクト610のモーションは、図20の例におけるモーションと異なる。つまり、プレイヤ4は、ユーザ3B宛の動作指図データ生成において、ユーザ3A宛の動作指図データ生成時と異なるモーションデータを選択している。具体的には、プレイヤ4は、ステップS66において、レコード画像742Bに対応するモーションデータを選択する、UI画像745Bへのタップ操作を入力している。このように、プレイヤ4は、動作指図データに含まれるモーションデータを、ユーザ3毎に異ならせることができる。
そして、ユーザ3毎に異なる内容の音声データと、ユーザ3毎に選択されたモーションデータとを含む、ユーザ3毎の動作指図データは、各ユーザ3のユーザ端末100のみに送信される。換言すれば、ユーザ端末100毎にユニーク(一意)の動作指図データが、選択されたユーザ3のユーザ端末100の各々に送信される。
図24は、ゲームプレイ端末300からユーザ端末100へのゲーム進行情報の送信の概要を示す図である。ユーザ端末100における動画再生のための動作指図データが、ユーザ端末100毎にユニークである一方、図24に示すように、ゲーム実行中に、ゲームに参加している全てのユーザ3のユーザ端末100に送信されるゲーム進行情報は、各ユーザ端末100の間で共通である。すなわち、ゲーム進行情報に含まれる動作指図データもまた、各ユーザ端末100の間で共通である。このように、動画再生のための動作指図データと、ゲームを進行させるための動作指図データとは、ユーザ端末100間での同異、および、送信先といった観点で異なるデータであると言える。
(ユーザ端末100における動画再生処理)
図25は、ユーザ端末100で実行される動画再生処理の流れの一例を示すフローチャートである。
ステップS71において、プロセッサ10は、動画再生部117として、動作指図データを受信する。ステップS72において、プロセッサ10は、動画再生部117として、動作指図データの受信をユーザ3へ通知する。プロセッサ10は、一例として、通知画像の表示部152への表示、スピーカ(不図示)からの通知音声の再生、LED(light-emitting diode)などで構成される点灯部(不図示)の点灯または点滅の少なくともいずれかにより、動作指図データの受信をユーザ3へ通知する。
ステップS73において、プロセッサ10は、操作受付部111として、動画を再生するための第1再生操作を受け付ける。第1再生操作は、一例として、通知画像をタップする操作であってもよい。ステップS74において、プロセッサ10は、動画再生部117として、動作指図データをレンダリングし、動画を再生する。プロセッサ10は、一例として、本ゲームをプレイするためのアプリケーションを起動し、動画を再生してもよいし、該アプリケーションとは別の、動画再生用のアプリケーションを起動し、動画を再生してもよい。以降、該動画を、「ありがとう動画」と記載する。
図26は、ありがとう動画の再生の一具体例を示す図である。具体的には、ユーザ3Aのユーザ端末100における、ありがとう動画の再生の一例を示す図である。該ユーザ端末100において再生されたありがとう動画910Aにおいて、アバターオブジェクト610は、或るモーションを実行しながら、音声920Aを発話している。換言すれば、プロセッサ10は、或るモーションを実行するアバターオブジェクト610を含むありがとう動画910Aを再生しながら、音声920Aをスピーカ(不図示)から出力させている。
ありがとう動画910Aにおけるモーションは、ユーザ3A宛の動作指図データの生成において、プレイヤ4が選択したモーションデータに基づくものであり、音声920Aは、該動作指図データの生成において、プレイヤ4が入力した発話音声820Aから生成された音声データに基づくものである。つまり、音声920Aは、ユーザ3Aがゲームにおいて行った支援の内容と、該支援に対する感謝とを含む音声である。このように、ユーザ3Aは、第1再生操作の入力により、自身がゲームにおいて行った支援の内容と、該支援に対する感謝とを、アバターオブジェクト610が発話するありがとう動画を視聴することができる。
ユーザ端末100は、一例として、ありがとう動画910Aの再生が終了した後、少なくとも1つのUI画像をタッチスクリーン15に表示させてもよい。該UI画像は、例えば、ありがとう動画910Aをもう一度再生するための操作を受け付けるUI画像であってもよいし、別の画面に遷移するための操作を受け付けるUI画像であってもよいし、アプリケーションを終了するための操作を受け付けるUI画像であってもよい。
また、ユーザ端末100は、一例として、ありがとう動画910Aの再生中に、少なくとも1つのUI画像をタッチスクリーン15に表示させてもよい。該UI画像は、例えば、再生中のありがとう動画910Aを一時的に停止させたり、終了させたり、再生する場面を変更させたりする操作をそれぞれ受け付ける、複数のUI画像であってもよい。
なお、ありがとう動画910Aの再生中、および、ありがとう動画910Aの再生が狩猟した後に表示されるこれらのUI画像には、アバターオブジェクト610に対する返答を行うためのUI画像は含まれない。すなわち、本実施形態に係るありがとう動画910Aにおいては、アバターオブジェクト610に対する返答を行うための手段が備えられていない。
図27は、ありがとう動画の再生の他の具体例を示す図である。具体的には、ユーザ3Bのユーザ端末100における、ありがとう動画の再生の例を示す図である。該ユーザ端末100において再生されたありがとう動画910Bにおいて、アバターオブジェクト610は、或るモーションを実行しながら、音声920Bを発話している。換言すれば、プロセッサ10は、或るモーションを実行するアバターオブジェクト610を含むありがとう動画910Bを再生しながら、音声920Bをスピーカ(不図示)から出力させている。
ありがとう動画910Bにおけるモーションは、ユーザ3B宛の動作指図データの生成において、プレイヤ4が選択したモーションデータに基づくものであり、音声920Bは、該動作指図データの生成において、プレイヤ4が入力した発話音声820Bから生成された音声データに基づくものである。このため、図27の例において、アバターオブジェクト610が行っているモーションは、図26の例のモーションとは異なる。また、音声920Bは、ユーザ3Bがゲームにおいて行った支援の内容と、該支援に対する感謝とを含む音声である。このため、図27の例において、音声920Bの内容は、図26の例に
おける音声920Aの内容とは異なる。
このように、ゲームの終了後に、ゲームに参加したユーザ3の少なくとも一部のユーザ端末100が受信するありがとう動画は、ユーザ3毎にアバターオブジェクト610の発話内容が異なる動画である。
なお、プロセッサ10は、次回のゲームへの参加を促す内容を含むUI画像930を、動画910に重畳させて表示させてもよい。UI画像930は、動作指図データとともに配信されてもよいし、ゲーム情報132として、ユーザ端末100が記憶していてもよい。
(本ゲームの概要の補足)
図11に示す本ゲームは、サーバ200を介してライブ配信されるゲーム進行情報に基づいて、視聴コンテンツであるゲーム画面をタッチスクリーン15に表示するライブ配信ゲームである。当該ライブ配信ゲームにおいてユーザがアイテム投入操作を行うと、アイテム投入情報がゲームプレイ端末300に送信され、アイテムオブジェクトが仮想空間600Aに投入される。アイテムオブジェクトにはポイントが関連付けられており、当該ポイントは、アイテム投入操作によりアバターオブジェクト610に付与される。
当該ライブ配信ゲームを視聴可能なユーザと、当該ユーザが当該ライブ配信ゲームにおいてアバターオブジェクト610に付与したポイント量とは、メモリ31に記憶されているライブ配信ゲーム管理テーブルTBL1(図28(A)参照)により管理される。即ち、ライブ配信ゲーム管理テーブルTBL1には、複数のユーザ各々のユーザIDが登録されており、ユーザがアバターオブジェクト610に付与したポイント量は、当該ユーザのユーザIDに関連付けられる。
図28(A)によれば、ユーザAには107120ポイントが関連付けられ、ユーザBには105903ポイントが関連付けられ、ユーザCには106469ポイントが関連付けられている。また、ユーザDには108905ポイントが関連付けられ、ユーザEには103556ポイントが関連付けられている。なお、図28(A)では、ライブ配信ゲームを視聴可能なユーザの一部を示している。
<ライブ対戦ゲームの概要>
本実施形態に係るシステム1は、当該ライブ配信ゲームに加えて、ライブ対戦ゲームを提供する。当該ライブ対戦ゲームでは、プレイヤにより操作されるアバターオブジェクト610と、プレイヤおよび挑戦者(後述)の各々により操作されるゲームオブジェクトとが仮想空間600Aおよび600Bの各々に登場し、当該ゲームオブジェクトを用いた対戦が行われる。当該ライブ対戦ゲームは、例えばY字状部材の先端にゴムを渡して当該ゴムに投射物をセットした状態で手前に引っ張って離すことにより、ゴムの張力により当該投射物を前方へ投射する玩具(いわゆるパチンコ玩具)を模したオブジェクト(以下、パチンコという)を用いて行われる。具体的には、プレイヤと挑戦者とが交替でパチンコを操作し、前方に配置されているトレーを模したオブジェクト(以下、トレーという)上に、当該パチンコで飛ばした果物を模したオブジェクト(以下、果物という)をどれだけ載せられるか(どちらが失敗せずに載せられるか)を競うパズルゲームである。当該パズルゲームでは、果物、パチンコ、トレーなどがゲームオブジェクトに相当する。
ライブ対戦ゲームにおいても、アバターオブジェクト610等のオブジェクトが仮想空間600Aに配置され、当該アバターオブジェクト610の頭部の位置に仮想カメラ620Aが配置される。当該仮想カメラ620Aの位置および向きは、プレイヤの頭部の動き、即ちアバターオブジェクト610の頭部の動きに応じて変更される。仮想カメラ620Aの位置および向きに応じた視界領域640Aの視界画像650は、ゲーム画面としてプレイヤ側のモニタ51およびディスプレイ530に表示される。
また、仮想空間600Aに相当する仮想空間600Bが、複数のユーザ端末100各々において規定される。アバターオブジェクト610等のオブジェクトを配置・動作等させるための動作指図データを含むゲーム進行情報は、ゲームプレイ端末300からサーバ200を介して複数のユーザ端末100に対して、所定時間(例えば1/60秒)毎にライブ配信される。この結果、当該ライブ対戦ゲームを視聴中のユーザ端末100のタッチスクリーン15には、当該オブジェクトが配置されている仮想空間600Bのうち、当該ユーザ端末100の仮想カメラ620Bによって規定される視界領域640Bの視界画像660が表示される。ただし、対戦中、プレイヤは仮想カメラ610Aを移動させることが可能であるものの、ユーザは、仮想カメラ620Bを移動させることが不可能である。
プレイヤおよび挑戦者の各々には、例えば対戦の進行に応じて付与されるゲームポイント(得点)が関連付けられている。このため、当該ゲーム進行情報には、当該ゲームポイントが含まれてもよく、視界画像660には、当該ゲームポイントに対応する画像が重畳して表示されてもよい。
ユーザ端末100においては、例えば図31(A)または図31(B)に示すゲーム画面が表示される。具体的には、ゲームオブジェクトが表示されたタブレットを模したオブジェクト(以下、タブレットという)760が、ゲーム画面の中央やや上段に表示され、アバターオブジェクト610が、当該ゲーム画面の左側に表示される。また、仮想空間内におけるゲーム画面の中央やや下段には、ゲームコントローラを模したオブジェクト(以下、仮想ゲームコントローラという)780が配置される。プレイヤは、当該仮想ゲームコントローラ780を操作する動作を行うことにより対戦ゲームを進行可能となる。仮想ゲームコントローラ780は、レバーを模したレバーオブジェクトと、ボタンを模したボタンオブジェクトとを含む。プレイヤからのレバーオブジェクトおよびボタンオブジェクトへの操作(モーション)は、コントローラ540により検知される。コントローラ540には、プレイヤの手に取り付けられて当該手の動き(手の動作(例えば、各指の位置、握りの形状・向き等)を検出するモーションセンサ520が設けられる。コントローラ540により、例えば、レバーオブジェクトへのモーションが検知されたときには、トレーを回転させるように表示し、ボタンオブジェクトへのモーション(押圧操作)が検知されたときには、パチンコを引っ張る画像を表示し、ボタンオブジェクトへの解除モーション(解除操作)が検知されたときには、発射させる画像を表示する。さらに、挑戦者以外のユーザ(観戦者)のユーザ端末100においては、図31(A)に示すように、観戦UI画像771および772が当該ゲーム画面の右下に表示される。また、挑戦者のユーザ端末100においては、図31(B)に示すように、対戦UI画像781および782が当該ゲーム画面の下段に表示される。
観戦UI画像771は、プレイヤまたは挑戦者を支援するためのアイテム投入操作をユーザから受け付けるUI画像をタッチスクリーン15に表示するための操作を受け付けるUI画像である。アイテムの投入による支援としては、例えば、プレイヤおよび挑戦者のうち当該ユーザが支援する者のターンにおいて、照準が取り付けられている高性能のパチンコの使用を可能にする旨の支援や、当該ターンにおいてトレーのサイズを大きくする旨の支援がある。一方、観戦UI画像772は、プレイヤまたは挑戦者に対するコメントを入力し、送信するための操作をユーザから受け付けるUI画像をタッチスクリーン15に表示するための操作を受け付けるUI画像である。
対戦UI画像781は、トレーを回転させるための操作を受け付けるためのUI画像である。トレーは、当該UI画像上でスワイプ操作を行うことにより回転する。また、対戦UI画像782は、パチンコにセットされた果物を飛ばすための操作を受け付けるためのUI画像である。果物は、当該UI画像をタッチした状態で指を手前にスライドさせ、その後に当該指を離すことによりトレーに向けて飛び出す。この際、スライドさせた距離に応じて果物が飛び出し、例えば、スライドさせた距離が長いほど、果物が遠くへ飛ぶように投射される。
一方、プレイヤ側のモニタ51およびディスプレイ530には、タブレット760や仮想ゲームコントローラ780等のオブジェクトが、仮想カメラ620Aの位置および向きに応じた視点で、モニタ51およびディスプレイ530に表示される。プレイヤは、仮想ゲームコントローラ780へのモーションにより、トレーを回転させるとともに、パチンコを引っ張って果物を飛ばす。プレイヤの手が仮想ゲームコントローラ780を操作する動きをすると、当該動きがモーションセンサ520により検出される。これによって、タブレット760に表示されているトレーが回転し、パチンコにより果物が飛ばされる。
パズルゲームの例では、果物の種類に応じて異なるポイント量が当該果物に関連付けられている。プレイヤまたは挑戦者がパチンコを操作して果物をトレーに載せることに成功すると、当該果物に関連付けられているポイント量が操作者に付与される。この結果、当該操作者に関連付けられているゲームポイントが、当該ポイント量により更新される。
ただし、ゲームプレイ端末300のコントローラ540(または仮想ゲームコントローラ780)と、ユーザ端末100のタッチスクリーン15との操作性の相違により、プレイヤと挑戦者との間で対戦の有利度合いに差が生じる。具体的に、コントローラ540の場合は、モーションセンサ520により細かい操作が可能となるのに対し、タッチスクリーン15の場合は、スワイプ操作やフリック操作等、感覚的な操作に限られる。このため、挑戦者の方がプレイヤよりも不利な対戦を強いられる。そこで、ゲームプレイ端末300は、当該有利度合いの差が解消されるように、ゲームパラメータを調整する。
例えば、挑戦者のターンでは、サイズが小さくトレーに載せることが比較的容易な果物を投射物としてパチンコにセットし、プレイヤのターンでは、サイズが大きくトレーから落ち易い果物を投射物としてパチンコにセットする。あるいは、挑戦者の投射回数をプレイヤよりも多くする。これによって、プレイヤと挑戦者との間での不公平感を抑えることが可能となる。
図28(A)に示すライブ配信ゲーム管理テーブルTBL1上の複数のユーザのうち、どのユーザが当該ライブ対戦ゲームを視聴中であるかは、メモリ31に記憶されている視聴管理テーブルTBL2(図28(B)参照)により管理される。ここでは、当該ライブ対戦ゲームのプログラムが起動されてから実際にライブ対戦が開始される前の段階の映像を視聴しているユーザも、「視聴中」と判定される。
視聴管理テーブルTBL2には、当該複数のユーザ各々のユーザIDが登録されており、当該ユーザIDには視聴フラグが関連付けられている。当該視聴フラグは、当該ライブ対戦ゲームの視聴を開始する操作をユーザから受け付けることによりセットされ、当該ライブ対戦ゲームの視聴を終了する操作をユーザから受け付けることによりリセットされる。図28(B)によれば、視聴フラグは、ユーザA、ユーザCおよびユーザDについてセットされ、ユーザBおよびユーザEについてリセットされる。なお、図28(B)においても、ライブ配信ゲームを視聴可能なユーザの一部を示している。
メモリ31には、図28(C)に示すランキング管理テーブルTBL3も記憶されている。当該ランキング管理テーブルTBL3は、当該ライブ対戦ゲームを視聴中のユーザを対象として生成される。具体的には、視聴フラグがセットされているユーザIDが視聴管理テーブルTBL2上で特定されるとともに、当該ユーザIDのユーザがライブ配信ゲームにおいてアバターオブジェクト610に付与したポイント量が、ライブ配信ゲーム管理テーブルTBL1上で特定される。ランキング管理テーブルTBL3には、当該ポイント量が多い順に当該ユーザIDが登録される。当該ランキング管理テーブルTBL3は、ライブ配信ゲームにおける複数のユーザの操作履歴を比較するための指標と言える。
図28(B)によれば、ユーザA、ユーザCおよびユーザDについて、視聴フラグがセットされている。また、図28(A)によれば、ユーザAが付与したポイント量は107120ポイントであり、ユーザCが付与したポイント量は106469ポイントであり、ユーザDが付与したポイント量は108905ポイントである。このため、ユーザIDは、D→A→Cの順で図28(C)のランキング管理テーブルTBL3に登録される。
なお、図28(C)においても、ライブ対戦ゲームを視聴中のユーザの一部を示している。また、ランキング管理テーブルTBL3は、ライブ対戦ゲームの視聴開始操作または視聴終了操作をユーザから受け付ける毎に更新される。
ライブ対戦ゲームによる対戦を開始する際、ゲームプレイ端末300は、ランキング管理テーブルTBL3に対応するランキング表オブジェクトを仮想空間600Bに配置させるための動作指図データと、当該ランキング管理テーブルTBL3に基づいてプレイヤが発した音声に対応する音声データとを含むゲーム進行情報を、複数のユーザ端末100に対して配信する。この結果、当該複数のユーザ端末100各々のタッチスクリーン15には、図31(C)に示すランキング表が表示される。また、当該複数のユーザ端末100各々のスピーカからは、ランキング表に対してプレイヤが発した音声が出力される。
ゲームプレイ端末300は、ランキング管理テーブルTBL3に登録されているユーザのうち、対戦を拒否していないユーザであってランキングが最も高いユーザを、対戦相手(ライブ対戦ゲームへの参加を許容するユーザ)として選定し、当該対戦相手のユーザ端末100に対して対戦申込み(ライブ対戦ゲームへの参加を問合せるための問合せ情報)を送信する。当該対戦申込みを受信したユーザ端末100のタッチスクリーン15には、図31(D)に示す対戦問合せ画面が表示される。なお、図31(D)における「XYZ」は、プレイヤの名称を意味する。当該対戦問合せ画面には、「ボイスチャット付き対戦受諾」、「ボイスチャット無し対戦受諾」、「対戦拒否」の3つの選択肢が列挙される。
なお、ボイスチャットとは、ユーザの音声に対応する音声データをユーザ端末100からゲームプレイ端末300に対して送信し、プレイヤの音声に対応する音声データをゲームプレイ端末300から当該ユーザ端末100に対して送信する機能である。当該ボイスチャットによる対話の内容を表す音声データは、ライブ対戦ゲームを視聴中の他のユーザ端末100にも配信される。
ユーザが「ボイスチャット付き対戦受諾」をタップすると、ユーザ端末100は、ボイスチャット機能をオンした上で、対戦受諾をゲームプレイ端末300に対して回答する。当該回答には、ボイスチャット機能がオンされたことを特定するための情報が含まれる。一方、ユーザが「ボイスチャット無し対戦受諾」をタップすると、ユーザ端末100は、ボイスチャット機能をオンすることなく、対戦受諾をゲームプレイ端末300に対して回答する。当該回答には、ボイスチャット機能がオフされたことを特定するための情報が含まれる。
ゲームプレイ端末300においては、当該対戦受諾の回答(ライブ対戦ゲームに参加する旨の応答情報)を受信することにより、当該回答を送信したユーザ端末100のユーザを挑戦者として確定させる。また、当該挑戦者のユーザ端末100においては、図31(B)に示す対戦UI画像781および782がゲーム画面上に表示される。
一方、対戦問合せ画面において、ユーザが「対戦拒否」をタップすると、ユーザ端末100は、対戦拒否をゲームプレイ端末300に対して回答する。対戦拒否の回答は、上記の3つの選択肢のいずれもタップされない状態が所定時間に亘り継続したときにも、ゲームプレイ端末300に対して送信される。このとき、ゲームプレイ端末300は、再度、ランキング管理テーブルTBL3から対戦相手を選定し、当該対戦相手のユーザ端末100との間で上述と同様のやり取りを実行する。
図29を参照して、ゲームプレイ端末300はまず、ユーザDを対戦相手として選定し、当該ユーザのユーザ端末100に対して対戦申込みを送信する。これに対して当該ユーザが「対戦拒否」をタップすると、当該ユーザ端末100からゲームプレイ端末300に対して対戦拒否の回答が送信される。このとき、ゲームプレイ端末300は、ユーザAを対戦相手として選定し、当該ユーザのユーザ端末100に対して対戦申込みを送信する。
当該ユーザが「ボイスチャット付き対戦受諾」または「ボイスチャット無し対戦受諾」をタップすると、当該ユーザ端末100は、ゲームプレイ端末300に対して対戦受諾の回答を送信するとともに、対戦UI画像781および782をタッチスクリーン870に表示する。また、「ボイスチャット付き対戦受諾」がタップされた場合は、ボイスチャット機能をオンする。ゲームプレイ端末300は、ユーザAを挑戦者として確定させる。
図30を参照して、対戦が開始されると、プレイヤのターンで当該プレイヤによる仮想ゲームコントローラ780への操作が許容され(有効に受け付け可能となる)、挑戦者のターンで当該挑戦者による対戦UI画像781および782の操作が許容される(有効に受け付け可能となる)。
ゲームプレイ端末300は、コントローラ540(仮想ゲームコントローラ780)の操作に対応するプレイヤ操作情報に基づいてプレイヤのターンのゲームを進行し、対戦UI画像781および782の操作に対応するユーザ操作情報に基づいて挑戦者のターンのゲームを進行する。具体的には、プレイヤのターンで当該プレイヤによるパチンコの操作が許容され、挑戦者のターンで当該挑戦者によるパチンコの操作が許容される。パチンコにセットされた果物は、当該操作に応じてトレーに向けて飛び出す。
プレイヤおよび挑戦者の各々に関連付けられているゲームポイントは、当該ゲームの進行に応じて更新される。即ち、果物をトレーに載せることに成功すると、当該果物に関連付けられているポイント量が操作者に付与される。
対戦は、所定の達成条件が成立することにより終了する。所定の達成条件としては、プレイヤおよび挑戦者の各々の投射回数が所定数に達することや、プレイヤおよび挑戦者のうちの一方が果物をトレーに載せることに失敗した回数が所定数に達することにより成立する条件を含む。対戦が終了すると、ゲームプレイ端末300は、対戦終了を複数のユーザ端末100に通知する。当該通知には対戦結果が含まれ、挑戦者には当該対戦結果に応じたアイテムが付与される。当該アイテムの価値は、挑戦者が勝ったときに最も高くなる。挑戦者が負けると、当該アイテムの価値は、当該挑戦者のゲームポイントが低くなるほど低くなる。また、複数のユーザ端末100においては、ゲームプレイ端末300から配信されたゲーム進行情報に基づいて、対戦結果に対する感想等を述べているプレイヤの音声が、当該プレイヤにより操作されるアバターオブジェクト610の動きや対戦画面の履歴とともに表示される。
本実施形態のライブ対戦ゲームでは、複数のユーザのうちから選定されたユーザが挑戦者としてプレイヤと対戦し、対戦中の映像が当該複数のユーザ各々のユーザ端末100に表示される。このため、当該挑戦者には他のユーザに対する優越感を抱かせることが可能となり、ゲームの好趣(興趣)の向上が図られる。また、ゲームパラメータは、プレイヤと挑戦者との間での対戦の有利度合いの差が解消されるように調整する。これによって、プレイヤと挑戦者との間での不公平感を抑えることが可能となる。
(動作について)
図32〜図34は、ライブ対戦ゲームの基本的なゲーム進行についてその一例を示すフローチャートである。このうち、図32および図33の各々に示すフローチャートは、ユーザ端末100およびゲームプレイ端末300により実行され、図34に示すフローチャートは、ゲームプレイ端末300により実行される。
なお、図32〜図34に示すフローチャートの一部の処理はサーバ200において実行し、処理結果をユーザ端末100に送信するようにしてもよい。また、ユーザ端末100とゲームプレイ端末300との間での情報の送受信は、サーバ200を介して実行されるものであるが、これに限らず、サーバ200を介することなく実行されるものであってもよい。
図32を参照して、ゲームプレイ端末300は、ステップS101において、現在のゲームパートが対戦開始前パートであるか否かを、メモリ31に記憶されているゲームパート情報に基づいて判定する。当該対戦開始前パートであると判定されると、ステップS102に進む。ステップS102では、ランキング管理テーブルTBL3に対応するランキング表オブジェクトを仮想空間600Bに配置させるための動作指図データと、当該ランキング管理テーブルTBL3に基づいてプレイヤが発した音声に対応する音声データとを含むゲーム進行情報を生成し、当該ゲーム進行情報をメモリ31に記憶されているゲームパート情報とともに複数のユーザ端末100に対して配信する。
ユーザ端末100は、ステップS81において、当該ゲーム進行情報とともに配信されたゲームパート情報に基づいて現在のゲームパートを特定し、当該ゲームパートが対戦開始前パートであるか否かを判定する。当該対戦開始前パートであると判定されたときは、ステップS82に進む。
ステップS82では、当該ゲーム進行情報から動作指図データを特定し、当該動作指図データに基づくオブジェクトを仮想空間600Bに配置・動作等させる。また、ステップS82では、現在の仮想カメラ620Bの位置および向きに応じた視界領域640Bを特定し、当該視界領域640Bに対応する視界画像660をタッチスクリーン15に表示する。さらに、ステップS82では、当該ゲーム進行情報から音声データを特定し、当該音声データに対応する音声をスピーカから出力する。この結果、タッチスクリーン15には、図31(C)に示すランキング表がタッチスクリーン15に表示され、スピーカからはプレイヤの音声が出力される。
ステップS103において、ゲームプレイ端末300は、ランキング管理テーブルTBL3に登録されているユーザのうちから、対戦を拒否していないユーザであってランキングが最も高いユーザを、対戦相手として選定する。ステップS104では、当該対戦相手のユーザ端末100に対して対戦申込みを送信する。
ステップS83において、ユーザ端末100は、当該対戦申込みを受信したか否かを通信IF13の出力に基づいて判定する。当該対戦申込みを受信したと判定されなかったときはリターンする。これにより、ステップS82の処理が繰り返し実行され、プレイヤが挑戦者を選定する様子とともに音声がユーザ端末100から出力される。一方、当該対戦申込みを受信したと判定されたときは、ステップS84に進む。ステップS84では、図31(D)に示す対戦問合せ画面をタッチスクリーン15に表示する。当該対戦問合せ画面には、「ボイスチャット付き対戦受諾」、「ボイスチャット無し対戦受諾」、「対戦拒否」の3つの選択肢が表示される。
ステップS85では、「ボイスチャット付き対戦受諾」に対するタップ操作が行なわれたか否かを、タッチスクリーン15に対する入力操作に基づいて判定する。当該タップ操作が行なわれたと判定されたときは、ステップS86でボイスチャット機能をオンし、その後にステップS89に進む。
ステップS85において、「ボイスチャット付き対戦受諾」に対するタップ操作が行なわれたと判定されなかったときは、ステップS87に進み、「ボイスチャット無し対戦受諾」に対するタップ操作が行なわれたか否かを、タッチスクリーン15に対する入力操作に基づいて判定する。当該タップ操作が行なわれたと判定されたときはステップS89に進み、当該タップ操作が行なわれたと判定されなかったときはステップS88に進む。
ステップS88では、「対戦拒否」に対するタップ操作が行なわれたか否かをタッチスクリーン15に対する入力操作に基づいて判定する。当該タップ操作が行なわれたと判定されなかったときはステップS85に戻り、当該タップ操作が行なわれたと判定されたときはステップS91に進む。なお、上記の3つの選択肢のいずれもタップされない状態が所定時間に亘り継続したときは、ステップS88からステップS91に進む。
ステップS89では、対戦受諾をゲームプレイ端末300に対して回答する。ステップS86からステップS89に進んだ場合には、ボイスチャット機能がオンされたことを特定するための情報が当該回答に含まれる。一方、ステップS87からステップS89に進んだ場合には、ボイスチャット機能がオフされたことを特定するための情報が当該回答に含まれる。
ステップS90では、対戦UI画像781および782を表示可能とするとともに、挑戦者フラグをセットする。当該対戦UI画像781および782は、対戦中パートにおいてタッチスクリーン15に表示される。一方、ステップS91では、対戦拒否をゲームプレイ端末300に対して回答する。ステップS90またはS91の処理が完了すると、リターンする。
ゲームプレイ端末300は、ステップS105において、当該対戦相手から対戦受諾の回答を受信したか否かを、通信IF33の出力に基づいて判定する。当該回答を受信したと判定されたときは、ステップS106に進み、当該対戦相手を挑戦者として確定する。ステップS106の処理が完了すると、ステップS107に進み、メモリ31に記憶されているゲームパート情報を対戦中パートに設定する。設定が完了すると、リターンする。
ステップS105において、対戦相手から対戦受諾の回答を受信したと判定されなかったときは、ステップS108に進む。ステップS108では、当該対戦相手から対戦拒否の回答を受信したか否かを、通信IF33の出力に基づいて判定する。当該対戦拒否の回答を受信したと判定されなかったときはステップS105に戻る。
ただし、ステップS102の処理と同様の処理、即ち、ランキング表オブジェクトを仮想空間600Bに配置させるための動作指図データと、プレイヤが発した音声に対応する音声データとを含むゲーム進行情報をゲームパート情報とともに配信する処理は、対戦受諾および対戦拒否のいずれの回答も受信しない期間においても、繰り返し実行される。当該対戦拒否の回答を受信したと判定されたときはリターンする。
ゲームプレイ端末300は、ステップS101において現在のゲームパートが対戦開始前パートであると判定されなかったとき、ステップS109に進む。ステップS109では、現在のゲームパートが対戦中パートであるか否かを、メモリ31に記憶されているゲームパート情報に基づいて判定する。当該対戦中パートであると判定されたときは、ステップS110でゲームプレイ端末側対戦処理(後述)を実行する。ステップS110の処理が完了すると、ステップS111に進み、メモリ31に記憶されているゲームパート情報を対戦終了後パートに設定する。設定が完了すると、リターンする。
ユーザ端末100は、ステップS81において現在のゲームパートが対戦開始前パートであると判定されなかった場合に、ステップS92に進む。ステップS92では、ゲームプレイ端末側対戦処理においてゲーム進行情報とともに配信されたゲームパート情報に基づいて、現在のゲームパートが対戦中パートであるか否かを判定する。当該対戦開始前パートであると判定されたときは、ステップS93に進み、ユーザ端末側対戦処理を実行する。
ステップS93の処理が完了するとステップS94に進み、自ユーザが挑戦者であるか否かを挑戦者フラグの設定に基づいて判定する。当該挑戦者フラグがセットされていれば自ユーザは挑戦者であるとみなし、ステップS95において対戦結果に応じたアイテムを自ユーザに付与する。ステップS96では、ボイスチャット機能をオフするとともに、挑戦者フラグをリセットする。ステップS96の処理が完了すると、リターンする。
なお、ステップS94において自ユーザが挑戦者であると判定されなかったとき(挑戦者フラグがリセットされているとき)は、ステップS95およびS96の処理を実行することなくリターンする。
ゲームプレイ端末300は、ステップS109において、現在のゲームパートが対戦中パートであると判定されなかったとき、ステップS112に進む。ステップS112では、現在のゲームパートが対戦終了後パートであるか否かを、メモリ31に記憶されているゲームパート情報に基づいて判定する。当該対戦終了後パートであると判定されたときは、ステップS113に進む。
ステップS113では、対戦終了を報知するオブジェクトの仮想空間600Aにおける配置・動作等を特定可能にするための動作指図データを含むゲーム進行情報を生成し、当該ゲーム進行情報をメモリ31に記憶されているゲームパート情報とともに複数のユーザ端末100に配信する。このとき、当該動作指図データには、例えば、対戦結果に対する感想等を述べているプレイヤの音声、当該プレイヤにより操作されるアバターオブジェクト610の動き、対戦画面の履歴等を特定可能にするためのデータが含まれる。
ステップS114では、所定時間が経過したか否かを図示しないタイマに基づいて判定する。当該所定時間が経過したと判定されなかったときはステップS113に戻り、当該所定時間が経過したと判定されたときはステップS115に進む。ステップS115では、メモリ31に記憶されているゲームパート情報を対戦開始前パートに設定する。設定が完了すると、リターンする。なお、ステップS112において、現在のゲームパートが対戦終了後パートであると判定されなかったときは、ステップS116でその他の処理を実行し、その後にリターンする。
ユーザ端末100は、ステップS92において現在のゲームパートが対戦中パートであると判定されなかったとき、ステップS97に進む。ステップS97では、現在のゲームパートが対戦終了後パートであるか否かを、ステップS113でゲーム進行情報とともに配信されたゲームパート情報に基づいて判定する。当該対戦終了後パートであると判定されたときは、ステップS98に進む。ステップS98では、当該ゲーム進行情報に含まれる動作指図データに基づいて、対戦終了を報知するオブジェクトを仮想空間600Bに配置・動作等させる。この結果、対戦結果に対する感想等を述べているプレイヤの音声が、当該プレイヤにより操作されるアバターオブジェクト610の動きや対戦画面の履歴とともに表示される。
また、ステップS98では、現在の仮想カメラ620Bの位置および向きに応じた視界領域640Bを特定し、当該視界領域640Bに対応する視界画像660をタッチスクリーン15に表示する。ステップS98の処理が完了すると、リターンする。なお、ステップS97において対戦終了後パートであると判定されなかったとは、ステップS99でその他の処理を実行し、その後にリターンする。
ユーザ側対戦処理およびゲームプレイ端末側対戦処理は、図34に示すサブルーチンに従って実行される。ゲームプレイ端末300は、ステップS131において、アバターオブジェクト610等のオブジェクトを仮想空間600Aに配置し、仮想カメラ620Aの位置および向きに応じた視界領域640Aに対応する視界画像650を、ゲーム画面としてモニタ51およびディスプレイ530の各々に表示する。ステップS131では、アバターオブジェクト610等のオブジェクトの配置・動作等を特定可能にするための動作指図データと、対戦中パートを示すゲームパート情報とを含むゲーム進行情報を生成し、当該ゲーム進行情報を複数のユーザ端末100に配信する。
ユーザ端末100は、ステップS121において、当該ゲーム進行情報に含まれる動作指図データに基づいて、アバターオブジェクト610等のオブジェクトを仮想空間600Bに配置・動作等させる。また、ステップS121では、現在の仮想カメラ620Bの位置および向きに応じた視界領域640Bを特定し、当該視界領域640Bに対応する視界画像660をタッチスクリーン15に表示する。この結果、挑戦者のユーザ端末100には、図31(B)に示すゲーム画面が表示される。
ステップS122では、自ユーザが挑戦者であるか否かを挑戦者フラグの設定に基づいて判定する。当該挑戦者フラグがセットされていれば自ユーザは挑戦者であるとみなし、ステップS123に進む。ステップS123では、対戦UI画像781または782に対するタッチ操作が許容されているときにおいて、タッチ操作が行なわれたか否かをタッチスクリーン15に対する入力操作に基づいて判定する。当該タッチ操作が行なわれたと判定されると、ステップS124に進み、当該タッチ操作の態様を特定可能にするためのユーザ操作情報をゲームプレイ端末300に対して送信する。
ゲームプレイ端末300は、ステップS132において、プレイヤ操作が許容されているときにおいてプレイヤ操作情報を受信したか否かをコントローラ540の出力に基づいて判定する。当該プレイヤ操作情報を受信したと判定されたときは、ステップS133に進み、仮想空間600Aにおけるアバターオブジェクト610を含むオブジェクトの位置や姿勢を当該プレイヤ操作情報に基づいて制御する。これにより、プレイヤのターンにおける仮想ゲームコントローラ780への操作に応じたトレーの回転状態、果物を投射前・投射中の様子、投射後においてトレー上に載るか否かの様子、プレイヤの姿勢・動作などが制御される。
ステップS132において当該プレイヤ操作情報を受信したと判定されなかったときは、ステップS134に進む。ステップS134では、ユーザ操作情報を受信したか否かを通信IF33の出力に基づいて判定する。当該ユーザ操作情報を受信したと判定されたときは、ステップS135に進み、仮想空間600Aにおけるユーザオブジェクト680の位置や姿勢を当該ユーザ操作情報に基づいて制御する。これにより、挑戦者のターンにおけるトレーの回転状態、果物を投射前・投射中の様子、投射後においてトレー上に載るか否かの様子、などが制御される。ステップS133またはステップS135の処理が完了したとき、あるいはステップS134で当該ユーザ操作情報を受信したと判定されなかったときは、ステップS136に進む。
ステップS136では、ゲームプログラムに基づいてゲームを進行させる。具体的には、コントローラ540(仮想ゲームコントローラ780)と対戦UI画像781、782との操作性の相違により対戦において生じる有利度合いの差に応じて、プレイヤおよび挑戦者の各々に投射させる果物の種類・大きさ・順番等を決定する。また、プレイヤ操作情報またはユーザ操作情報に基づいて、プレイヤまたは挑戦者に関連付けられているゲームポイントを更新する。
ステップS137では、所定の達成条件(プレイヤおよび挑戦者の各々の投射回数が所定数に達するといった条件、またはプレイヤおよび挑戦者のうちの一方が果物をトレーに載せることに失敗した回数が所定数に達するといった条件)が成立することにより対戦が終了したか否かを、ステップS136の処理結果に基づいて判定する。
当該対戦が終了したと判定されなかったときはステップS131に戻り、当該対戦が終了したと判定されたときはステップS138に進む。ステップS138では、対戦終了を複数のユーザ端末100に通知する。当該通知には、対戦結果が含まれる。通知が完了すると、リターンする。
ユーザ端末100においては、ステップS124の処理が完了したとき、ステップS122において自ユーザが挑戦者であると判定されなかったとき(挑戦者フラグがリセットされているとき)、またはステップS123において当該タッチ操作が行なわれたと判定されなかったときに、ステップS125に進む。ステップS125では、ゲームプレイ端末300から対戦終了が通知されたか否かを、通信IF13の出力に基づいて判定する。当該対戦終了が通知されたと判定されたときは、ステップS121に戻り、当該対戦終了が通知されたと判定されたときは、リターンする。
<本実施形態の効果>
本実施形態によれば、プレイヤにより操作されるアバターオブジェクト610と、プレイヤおよび挑戦者の各々により操作されるゲームオブジェクトとが仮想空間600Aおよび600Bの各々に登場し、当該ゲームオブジェクトを用いた対戦が行われる。ここで、プレイヤはコントローラ540(仮想ゲームコントローラ780)を操作してゲームを進行させる一方、挑戦者はユーザ端末100のタッチスクリーン15に対するタッチ操作によりゲームを進行させるため、その操作性の相違によって挑戦者の方がプレイヤよりも不利な対戦を強いられる。ただし、当該ライブ対戦ゲームでは、複数のユーザのうちから選定されたユーザが挑戦者としてアバターオブジェクト610と対戦するため、当該挑戦者は、他のユーザに対して優越感を抱くこととなる。この結果、対戦の有利・不利にかかわらず、ゲームの好趣(興趣)を向上させることができる。
また、本実施形態によれば、ユーザは、ライブ対戦ゲームを開始する際に、プレイヤとのボイスチャット機能をオンするか否かを設定可能である。これによって、ユーザが発した音声が意図せずに他のユーザのユーザ端末100に配信される懸念を解消することができる。
さらに、本実施形態によれば、ゲームパラメータは、プレイヤ・挑戦者間の対戦の有利度合いの差に応じて調整される。即ち、対戦の有利・不利が解消されるようにゲームパラメータが調整される。これによって、挑戦者がプレイヤに対して抱く不公平感を抑えることが可能となる。
また、本実施形態によれば、対戦中の映像は、挑戦者のみならず、当該挑戦者以外のユーザのユーザ端末100においても表示される。これによって、当該他のユーザに対する優越感を当該挑戦者に抱かせることが可能となる。
さらに、本実施形態によれば、他のユーザのユーザ端末100には観戦UI画像771および772が表示される。プレイヤまたは挑戦者を支援するためのアイテムは、当該観戦UI画像771を操作することにより仮想空間600Aおよび600Bに投入される。また、プレイヤまたは挑戦者に対するコメントは、当該観戦UI画像772を操作することにより入力される。これによって、他のユーザも対戦に関与することができる。
本実施形態によれば、ライブ配信ゲームにおける複数のユーザの操作履歴を比較するための指標であるランキング管理テーブルTBL3が、ゲームプレイ端末300において生成される。ライブ対戦ゲームにおいてプレイヤと対戦する挑戦者は、当該ランキング管理テーブルTBL3に基づいて、複数のユーザのうちから選定される。仮想空間600Aおよび600Bの各々には、プレイヤにより操作されるアバターオブジェクト610と、プレイヤおよび挑戦者の各々により操作されるゲームオブジェクトとが登場し、当該ゲームオブジェクトを用いた対戦が行われる。
即ち、ライブ対戦ゲームにおける挑戦者は、ライブ配信ゲームにおける複数のユーザ各々の操作履歴に基づいて、当該複数のユーザのうちから選定される。この結果、ライブ対戦ゲームとライブ配信ゲームとの連携が図られる。これにより、ユーザにとっては、ライブ対戦ゲームおよびライブ配信ゲームの組合せによる興趣性の向上を期待できる。また、ゲームの運営者にとっては、ライブ対戦ゲームの視聴数の増大とともに、ライブ配信ゲームの視聴数の増大を期待できる。
また、本実施形態によれば、ライブ配信ゲームでは、ユーザのアイテム投入操作に基づいて、アバターオブジェクト610にポイントが付与される。上述の操作履歴は、ライブ配信ゲームにおいてアバターオブジェクト610にポイントを付与することにより更新される履歴を含む。これにより、当該アイテム投入操作を当該ユーザのランキングに反映させることが可能となる。
さらに、本実施形態によれば、アバターオブジェクト610とランキング管理テーブルTBL3に対応するランキング表オブジェクトとを仮想空間600Bに配置させるための動作指図データと、当該ランキング管理テーブルTBL3に基づいてプレイヤが発した音声に対応する音声データとを含むゲーム進行情報が、複数のユーザ端末100に対して配信される。これによって、対戦相手を選定する過程を複数のユーザが知ることができ、ゲームの好趣が高められる。
また、本実施形態によれば、ゲームプレイ端末300は、ランキング管理テーブルTBL3から選定した対戦相手に対して、対戦申込みを送信する。当該対戦申込みに対して対戦受諾の回答を受信すると、ゲームプレイ端末300は、当該回答を送信したユーザを挑戦者として確定させる。これによって、対戦相手の意向を踏まえて挑戦者を決定することができる。
さらに、本実施形態によれば、対戦受諾の回答には、プレイヤとのボイスチャットの有無を特定するための情報が含まれる。これにより、プレイヤは、当該ボイスチャットが可能か否かを把握可能となる。
<変形例>
以上説明した実施形態の変形例などを以下に列挙する。
(1) 上記実施形態においては、対戦ゲームの種類は固定的である。しかし、対戦申込み時に複数種類の対戦ゲームをユーザに提示し、当該複数種類の対戦ゲームのうちのいずれかの種類の対戦ゲームを当該ユーザによる対戦ゲーム選択操作に応じて選択できるようにしてもよい。この場合、好ましくは、当該対戦ゲーム選択操作により選択された対戦ゲームの種類を特定可能にするための対戦種類データが、サーバ200を介してゲームプレイ端末300に送信される。ゲームプレイ端末300は、当該対戦種類データに応じた種類の対戦ゲームのゲーム進行情報をサーバ200を介してユーザ端末100に配信する。
(2) 上記実施形態においては、対戦が開始された後に本ゲームの視聴を開始したユーザ端末100には、観戦UIは表示されない。しかし、観戦UIは、対戦が開始された後に本ゲームの視聴を開始したユーザ端末100にも表示するようにしてもよい。
(3) 上記実施形態においては、プレイヤとのボイスチャット機能をオンするか否かは、ゲームプレイ端末300からの対戦申込みに対して対戦受諾を回答する段階でしか選択できない。しかし、当該ボイスチャット機能のオン/オフは、対戦中に切替え可能とするようにしてもよい。
(4) 上記実施形態においては、プレイヤとのボイスチャットを実行できるのは、挑戦者に限られる。しかし、挑戦者以外のユーザについても、当該ボイスチャットを実行できるようにしてもよい。これにより、当該ユーザは、対戦中にプレイヤに対して声援を送ることが可能となる。
(5) 上記実施形態においては、ランキング管理テーブルTBL3に登録されているユーザのうち、対戦を拒否していないユーザであってランキングが最も高いユーザが、対戦相手として選定される。しかし、当該対戦相手は、プレイヤの操作により選定するようにしてもよい。
(6) 上記実施形態においては、観戦UI画像771を操作することにより、プレイヤまたは挑戦者を支援するためのアイテムが投入される。しかし、投入するアイテムは、プレイヤまたは挑戦者によるゲームの進行を阻害するアイテム(例えば、パチンコから放たれた果物にぶつけられる石などの障害物)であってもよい。また、別の観戦UI画像を表示し、当該観戦UI画像に対する操作をユーザから受け付けることにより、当該ユーザのユーザ端末100における仮想カメラ620Bの位置や向きを変化させるようにしてもよい。
なお、前述した実施形態では、対戦中、プレイヤは仮想カメラ610Aを移動させることが可能である一方、挑戦者および観戦者の各々は仮想カメラ620Bを移動させることが不可能である。しかし、これに限らず、挑戦者および観戦者のいずれについてもタッチスクリーン15に対するタップ操作に応じて仮想カメラ620Bを移動可能とするようにしてもよい。この場合、挑戦者については、仮想カメラ620Bが定位置にあるときに対戦UI画像781、782を表示し、移動しているときには対戦UI画像781、782を非表示としてもよい。これにより、定位置からでなければゲームを進行するための入力操作を受付けないようにできる。一方、観戦者については、仮想カメラ620Bの位置にかかわらず、常に観戦UI画像771、772を表示するようにしてもよい。
(7) 上記実施形態においては、ライブ対戦ゲームとして、プレイヤと挑戦者とが交替でパチンコを操作し、当該パチンコで飛ばした果物をどれだけトレーに載せられるかを競うパズルゲームを想定している。しかし、ユーザにより操作されるユーザオブジェクトがアバターオブジェクト610と対戦する対戦ゲームや、当該ユーザオブジェクトとアバターオブジェクト610とが共通の敵オブジェクトと対戦する対戦ゲームや、プレイヤおよびユーザの各々により操作される動物(例えばペンギン)を模したオブジェクトにより対戦(相撲)する対戦ゲームを想定してもよい。
当該相撲を行う対戦ゲームでは、プレイヤにより操作されるオブジェクトへの入力操作と、ユーザにより操作されるオブジェクトへの入力操作とが、交互に行われる。当該入力操作は、操作対象のオブジェクトを進行させる向き、および強さ(突進力)を特定するための操作である。入力操作により進行した一方のオブジェクトが他方のオブジェクトに衝突することにより、当該他方のオブジェクトを土俵の外に弾き飛ばされると、当該一方のオブジェクトの操作者が対戦に勝利する。
(8) 上記実施形態においては、本ゲームを視聴中のユーザのユーザIDをランキング管理テーブルTBL3に登録し、当該ユーザのうちから対戦相手を選定するようにしている。しかし、本ゲームを視聴中のユーザおよび本ゲームを視聴していないユーザのいずれのユーザIDもランキング管理テーブルTBL3に登録し、当該ユーザのうちから対戦相手を選定するようにしてもよい。この場合、視聴していないユーザが対戦相手として選定された場合は、プッシュ通知により本ゲームの視聴を促すようにしてもよい。
(9) 上記実施形態においては、ランキング管理テーブルTBL3は、プレイヤが登場するライブ配信ゲームにおけるユーザの操作履歴(具体的には、アイテム投入操作)に基づいて生成される。しかし、ランキング管理テーブルTBL3は、プレイヤが登場しないゲームの操作履歴に基づいて生成するようにしてもよい。例えば、プレイヤが登場しないシューティングゲームにおいてユーザが撃退した敵キャラクタの量に基づいて、ランキング管理テーブルTBL3を生成するようにしてもよい。
(10) 上記実施形態においては、ライブ配信ゲームにおいてユーザがプレイヤに付与したポイント量に基づいてランキングを特定するようにしている。しかし、当該ポイント量のみならず、ライブ配信ゲームを進行する過程におけるユーザのマナーに関する度合いに応じて当該ランキングを特定するようにしてもよい。即ち、基本的にポイント量が多い方から順にランキングを特定するが、裏パラメータとして、ユーザのマナーの度合い(民度リテラシー)を管理しておき、ポイント量が多くても当該マナーが低ければ、当該ユーザのランキングを下げるようにしてもよい。この場合、当該マナーの度合いは、ユーザがプレイヤに対して行った誹謗中傷の程度に基づいて、配信者側で設定するようにしてもよい。
(11) 上記実施形態においては、対戦申込みを受信したときに、ユーザ操作に応じてボイスチャット機能のオン/オフを切替え可能としている。しかし、対戦申込みを受信する前の段階でボイスチャット機能のオン/オフを切替え可能とするようにしてもよい。
(12) 上記実施形態においては、ライブ配信ゲームにおけるユーザの操作履歴として、アバターオブジェクト610にポイントを付与することにより更新される履歴を想定している。しかし、当該ライブ配信ゲームの進行に応じて課金することにより更新される履歴を当該操作履歴として想定するようにしてもよい。
(13) 上記実施形態においては、果物、トレー、パチンコなどのゲームオブジェクトの他に、アバターオブジェクト610も、ユーザ端末100のタッチスクリーン15に表示される。しかし、アバターオブジェクト610は非表示とするようにしてもよい。
(14) 上記実施形態においては、挑戦者のユーザ端末100のタッチスクリーン15に対戦UI画像781および782を表示するようにしているが、対戦UI画像781および782は挑戦者のターンで表示し、プレイヤのターンでは観戦UI画像771および772を表示するようにしてもよい。
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
(付記1):
本開示に示す一実施形態のある局面によれば、プロセッサおよびメモリを備えるコンピュータ(ゲームプレイ端末300)により実行される配信プログラムであって、前記配信プログラムは、前記プロセッサに、複数のユーザ各々による第1ゲーム(ライブ配信ゲーム)における履歴に応じて、当該複数のユーザ間で比較するための指標(ランキング管理テーブルTBL3)を生成する第1ステップと、前記指標に基づいて、前記第1ゲームとは異なる第2ゲーム(ライブ対戦ゲーム)への参加を許容するユーザ(対戦者)を前記複数のユーザのうちから特定する第2ステップ(S113)と、配信者により操作される第1オブジェクト(アバターオブジェクト610)とともに前記第2ステップにより特定されたユーザにより操作される第2オブジェクト(ユーザオブジェクト680)を仮想空間内に配置させて進行する第2ゲームを制御する第3ステップ(S120)とを実行させる。
(付記2):
(付記1)において、前記第1ゲームは、前記複数のユーザ各々の操作に基づいて前記配信者に特典(ポイント)を付与するゲームを含み、前記履歴は、前記第1ゲームにおいて前記配信者に特典を付与することにより更新される履歴を含む。
(付記3):
(付記1)または(付記2)において、前記履歴は、前記第1ゲームの進行に応じて課金することにより更新される履歴を含む。
(付記4):
(付記1)から(付記3)のいずれかにおいて、前記第1ステップは、前記履歴のみならず前記第1ゲームを進行する過程におけるユーザのマナーに関する度合いに応じて前記指標を生成する。
(付記5):
(付記1)から(付記4)のいずれかにおいて、前記配信プログラムは、前記プロセッサに、前記第2ゲームの進行に応じた前記仮想空間内の映像を表示可能にするための表示用データ(ゲーム進行情報)を、前記第2ゲームに参加しているユーザのみならず、他のユーザに対しても配信する第4ステップ(S138)を実行させる。
(付記6):
(付記1)から(付記5)のいずれかにおいて、前記配信プログラムは、前記プロセッサに、前記第1オブジェクトと前記第1ステップにより生成された指標に対応する指標オブジェクトとが配置されている仮想空間内の映像を表示可能にするための表示用データを前記複数のユーザ各々に対して配信する第5ステップを実行させ、前記第5ステップは、前記指標に基づいて前記配信者が発した音声に対応する音声データを前記表示用データとともに配信する。
(付記7):
(付記6)において、前記第2ステップは、前記第5ステップにより配信されている表示用データを受信しているユーザのうちから前記第2ゲームへの参加を許容するユーザを特定する。
(付記8):
(付記1)から(付記7)のいずれかにおいて、前記第2ステップは、指定したユーザに対して前記第2ゲームへの参加を問合せるための問合せ情報(対戦申込み)を送信するステップ(S114)と、前記問合せ情報に対して前記第2ゲームに参加する旨の応答情報(対戦受諾の回答)を受信したときには、当該応答情報送信元のユーザを、前記第2ゲームへの参加を許容するユーザとして特定するステップ(S116)とを含む。
(付記9):
(付記8)において、前記第2ゲームに参加する旨の応答情報には、前記第2ゲーム中においてユーザの音声に対応する音声データを前記配信者に対して送信するか否か(ボイスチャットの有無)を特定するための情報を含む。
(付記10):
一実施形態のある局面によれば、プロセッサおよびメモリを備えるコンピュータ(ゲームプレイ端末300)により実行される配信方法であって、前記配信方法は、前記コンピュータが、複数のユーザ各々による第1ゲーム(ライブ配信ゲーム)における履歴に応じて、当該複数のユーザ間で比較するための指標(ランキング管理テーブルTBL3)を生成する第1ステップと、前記指標に基づいて、前記第1ゲームとは異なる第2ゲーム(ライブ対戦ゲーム)への参加を許容するユーザ(対戦者)を前記複数のユーザのうちから特定する第2ステップ(S113)と、配信者により操作される第1オブジェクト(アバターオブジェクト610)とともに前記第2ステップにより特定されたユーザにより操作される第2オブジェクト(ユーザオブジェクト680)を仮想空間内に配置させて進行する第2ゲームを制御する第3ステップ(S120)とを備える。
(付記11):
一実施形態のある局面によれば、情報端末装置(ゲームプレイ端末300)であって、配信プログラムを記憶する記憶部(記憶部320)と、前記配信プログラムを実行することにより、前記情報端末装置の動作を制御する制御部(制御部310)とを備え、前記制御部は、複数のユーザ各々による第1ゲーム(ライブ配信ゲーム)における履歴に応じて、当該複数のユーザ間で比較するための指標(ランキング管理テーブルTBL3)を生成する第1ステップと、前記指標に基づいて、前記第1ゲームとは異なる第2ゲーム(ライブ対戦ゲーム)への参加を許容するユーザ(対戦者)を前記複数のユーザのうちから特定する第2ステップ(S113)と、配信者により操作される第1オブジェクト(アバターオブジェクト610)とともに前記第2ステップにより特定されたユーザにより操作される第2オブジェクト(ユーザオブジェクト680)を仮想空間内に配置させて進行する第2ゲームを制御する第3ステップ(S120)とを実行する。
〔ソフトウェアによる実現例〕
ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット1000)、および配信端末400の制御ブロック(特に制御部110、210、310、410)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット1000)、および配信端末400は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。