本開示に係るシステムは、複数のユーザにゲームを提供するためのシステムである。以下、該システムについて図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
<システム1の動作概要>
図1は、本実施形態に係るシステム1の概要を示す図である。システム1は、複数のユーザ端末100(コンピュータ)と、サーバ200と、ゲームプレイ端末300(外部装置、第2外部装置)と、配信端末400(外部、第1外部装置)とを含む。なお、図1では、複数のユーザ端末100の一例として、ユーザ端末100A~100C、換言すれば、3台のユーザ端末100を記載しているが、ユーザ端末100の台数は図示の例に限定されない。また、本実施形態では、ユーザ端末100A~Cを区別する必要が無い場合、「ユーザ端末100」と記載する。ユーザ端末100、ゲームプレイ端末300、および配信端末400は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
(ゲームの概要)
本実施形態では、システム1によって提供されるゲーム(以下、本ゲーム)の一例として、ゲームプレイ端末300のユーザが主としてプレイするゲームを説明する。以下、ゲームプレイ端末300のユーザを、「プレイヤ」と称する。プレイヤ(演者)は、一例として、本ゲームに登場するキャラクタを操作することにより、ゲームを進行させる。また、本ゲームにおいて、ユーザ端末100のユーザは、プレイヤによるゲームの進行を支援する役割を担う。本ゲームの詳細については後述する。なお、システム1によって提供されるゲームは、複数のユーザが参加するゲームであればよく、この例に限定されない。
(ゲームプレイ端末300)
ゲームプレイ端末300は、プレイヤによる入力操作に応じてゲームを進行させる。また、ゲームプレイ端末300は、プレイヤのゲームプレイにより生成された情報(以下、ゲーム進行情報)を、順次、サーバ200にリアルタイムで配信する。
(サーバ200)
サーバ200は、ゲームプレイ端末300からリアルタイムに受信したゲーム進行情報(第2データ)を、ユーザ端末100に送信する。また、サーバ200は、ユーザ端末100、ゲームプレイ端末300、および配信端末400の間の各種情報の送受信を仲介する。
(配信端末400)
配信端末400は、配信端末400のユーザによる入力操作に応じて、動作指図データ(第1データ)を生成し、サーバ200を介してユーザ端末100へ動作指図データを配信する。動作指図データとは、ユーザ端末100において動画を再生するためのデータであり、具体的には、動画に登場するキャラクタを動作させるためのデータである。
本実施形態では、一例として、配信端末400のユーザは、本ゲームのプレイヤである。また、一例として、ユーザ端末100にて動作指図データに基づいて再生される動画は、プレイヤがゲームで操作したキャラクタが動作する動画である。「動作」とは、キャラクタの身体の少なくとも一部を動かすことであり、発話も含む。このため、本実施形態に係る動作指図データは、例えば、キャラクタに発話させるための音声データと、キャラクタの身体を動かすためのモーションデータとを含む。
動作指図データは、一例として、本ゲームの終了後にユーザ端末100へ送信される。動作指図データ、および、該動作指図データに基づいて再生される動画の詳細については後述する。
(ユーザ端末100)
ユーザ端末100は、ゲーム進行情報をリアルタイムに受信し、該情報を用いてゲーム画面を生成して表示する。換言すれば、ユーザ端末100は、リアルタイムレンダリングにより、プレイヤがプレイしているゲームのゲーム画面を再生する。これにより、ユーザ端末100のユーザは、プレイヤがゲームをプレイしながら視認しているゲーム画面と同一のゲーム画面を、プレイヤとほぼ同じタイミングで視認することができる。
また、ユーザ端末100は、ユーザによる入力操作に応じて、プレイヤによるゲームの進行を支援するための情報を生成し、該情報を、サーバ200を介してゲームプレイ端末300へ送信する。該情報の詳細については後述する。
また、ユーザ端末100は、配信端末400から動作指図データを受信し、該動作指図データを用いて動画(映像)を生成して再生する。換言すれば、ユーザ端末100は、動作指図データをレンダリングして再生する。
<システム1のハードウェア構成>
図2は、ユーザ端末100のハードウェア構成を示す図である。図3は、サーバ200のハードウェア構成を示す図である。図4は、ゲームプレイ端末300のハードウェア構成を示す図である。図5は、配信端末400のハードウェア構成を示す図である。
(ユーザ端末100)
本実施形態では、一例として、ユーザ端末100がスマートフォンとして実現される例を説明するが、ユーザ端末100はスマートフォンに限定されない。例えば、ユーザ端末100はフィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピュータ(いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして実現されてもよい。また、ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい。
ユーザ端末100は図2に示すように、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、カメラ17と、測距センサ18とを備える。ユーザ端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末100は、タッチスクリーン15に代えて、または、加えて、ユーザ端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
また、図2に示すように、ユーザ端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、ユーザ端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値をユーザ端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値をユーザ端末100へ送信する。
なお、ユーザ端末100がカメラ17および測距センサ18を備えることに代えて、または、加えて、コントローラ1020がカメラ17および測距センサ18を有していてもよい。
ユーザ端末100は、例えばゲーム開始時に、コントローラ1020を使用するユーザに、該ユーザの名前またはログインID等のユーザ識別情報を、該コントローラ1020を介して入力させることが望ましい。これにより、ユーザ端末100は、コントローラ1020とユーザとを紐付けることが可能となり、受信した出力値の送信元(コントローラ1020)に基づいて、該出力値がどのユーザのものであるかを特定することができる。
ユーザ端末100が複数のコントローラ1020と通信する場合、各コントローラ1020を各ユーザが把持することで、ネットワーク2を介してサーバ200などの他の装置と通信せずに、該1台のユーザ端末100でマルチプレイを実現することができる。また、各ユーザ端末100が無線LAN(Local Area Network)規格等の無線規格により互いに通信接続する(サーバ200を介さずに通信接続する)ことで、複数台のユーザ端末100によりローカルでマルチプレイを実現することもできる。1台のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、ユーザ端末100は、さらに、サーバ200が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端末100は、サーバ200が備える後述する種々の機能を分散して備えていてもよい。
なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末100はサーバ200と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレイ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ200に送信してもよい。
また、コントローラ1020は、ユーザ端末100に着脱可能な構成であるとしてもよい。この場合、ユーザ端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末100とコントローラ1020とが結合している場合は、ユーザ端末100とコントローラ1020とは、有線を介して信号を送受信する。
図2に示すように、ユーザ端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、ユーザ端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えばゲームプログラムである。
ユーザ端末100は、サーバ200等の外部の装置と通信することにより取得したゲームプログラムをユーザ端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得したゲームプログラムをメモリ11に記憶してもよい。
以上で説明したとおり、ユーザ端末100は、該ユーザ端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、タッチスクリーン15、カメラ17、および、測距センサ18を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
例えば、操作部が、カメラ17および測距センサ18の少なくともいずれか一方で構成される場合、該操作部が、ユーザ端末100の近傍の物体1010を検出し、当該物体の検出結果から入力操作を特定する。一例として、物体1010としてのユーザの手、予め定められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ端末100は、カメラ17の撮影画像からユーザの手が検出された場合、該撮影画像に基づき検出されるジェスチャ(ユーザの手の一連の動き)を、ユーザの入力操作として特定し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。
あるいは、操作部がタッチスクリーン15で構成される場合、ユーザ端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、ユーザ端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
(サーバ200)
サーバ200は、一例として、ワークステーションまたはパーソナルコンピュータなどの汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
(ゲームプレイ端末300)
ゲームプレイ端末300は、一例として、パーソナルコンピュータなどの汎用コンピュータであってよい。ゲームプレイ端末300は、プロセッサ30と、メモリ31と、ストレージ32と、通信IF33と、入出力IF34とを備える。ゲームプレイ端末300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
図4に示すように、本実施形態に係るゲームプレイ端末300は、一例として、HMD(Head Mounted Display)セット1000に含まれる。つまり、HMDセット1000が、システム1に含まれていると表現することができ、また、プレイヤは、HMDセット1000を用いてゲームをプレイすると表現することもできる。なお、プレイヤがゲームをプレイするための装置は、HMDセット1000に限定されない。一例として、該装置は、プレイヤにゲームを仮想体験させることが可能な装置であればよい。また、該装置は、スマートフォン、フィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピュータ(いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして実現されてもよい。また、該装置は、ゲームプレイに適したゲーム装置であってもよい。
HMDセット1000は、ゲームプレイ端末300の他、HMD500、HMDセンサ510、モーションセンサ520、ディスプレイ530、コントローラ540を備える。HMD500は、モニタ51と、注視センサ52と、第1カメラ53と、第2カメラ54と、マイク55と、スピーカ56とを含む。コントローラ540は、モーションセンサ520を含み得る。
HMD500は、プレイヤの頭部に装着され、動作中に仮想空間をプレイヤに提供し得る。より具体的には、HMD500は、右目用の画像および左目用の画像をモニタ51にそれぞれ表示する。プレイヤの各目がそれぞれの画像を視認すると、プレイヤは、両目の視差に基づき当該画像を3次元画像として認識し得る。HMD500は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。
モニタ51は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ51は、プレイヤの両目の前方に位置するようにHMD500の本体に配置されている。したがって、プレイヤは、モニタ51に表示される3次元画像を視認すると、仮想空間に没入することができる。ある局面において、仮想空間は、例えば、背景、プレイヤが操作可能なオブジェクト、プレイヤが選択可能なメニューの画像を含む。ある局面において、モニタ51は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。
別の局面において、モニタ51は、透過型の表示装置として実現され得る。この場合、HMD500は、図1に示されるようにプレイヤの目を覆う密閉型ではなく、メガネ型のような開放型であり得る。透過型のモニタ51は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。モニタ51は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニタ51は、HMD500に搭載されたカメラで撮影した現実空間の画像を表示してもよいし、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。
ある局面において、モニタ51は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ51は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ51は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
ある局面において、HMD500は、図示せぬ複数の光源を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ510は、HMD500の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ510は、HMD500が発する複数の赤外線を読み取り、現実空間内におけるHMD500の位置および傾きを検出する。
別の局面において、HMDセンサ510は、カメラにより実現されてもよい。この場合、HMDセンサ510は、カメラから出力されるHMD500の画像情報を用いて、画像解析処理を実行することにより、HMD500の位置および傾きを検出することができる。
別の局面において、HMD500は、位置検出器として、HMDセンサ510の代わりに、あるいはHMDセンサ510に加えてセンサ(不図示)を備えてもよい。HMD500は、該センサを用いて、HMD500自身の位置および傾きを検出し得る。例えば、該センサが角速度センサ、地磁気センサ、あるいは加速度センサである場合、HMD500は、HMDセンサ510の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、HMD500に備えられたセンサが角速度センサである場合、角速度センサは、現実空間におけるHMD500の3軸周りの角速度を経時的に検出する。HMD500は、各角速度に基づいて、HMD500の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD500の傾きを算出する。
注視センサ52は、プレイヤの右目および左目の視線が向けられる方向を検出する。つまり、注視センサ52は、プレイヤの視線を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ52は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ52は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ52は、例えば、プレイヤの右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ52は、検出した各回転角に基づいて、プレイヤの視線を検知することができる。
第1カメラ53は、プレイヤの顔の下部を撮影する。より具体的には、第1カメラ53は、プレイヤの鼻および口などを撮影する。第2カメラ54は、プレイヤの目および眉などを撮影する。HMD500のプレイヤ側の筐体をHMD500の内側、HMD500のプレイヤとは逆側の筐体をHMD500の外側と定義する。ある局面において、第1カメラ53は、HMD500の外側に配置され、第2カメラ54は、HMD500の内側に配置され得る。第1カメラ53および第2カメラ54が生成した画像は、ゲームプレイ端末300に入力される。別の局面において、第1カメラ53と第2カメラ54とを1台のカメラとして実現し、この1台のカメラでプレイヤの顔を撮影するようにしてもよい。
マイク55は、プレイヤの発話を音声信号(電気信号)に変換してゲームプレイ端末300に出力する。スピーカ56は、音声信号を音声に変換してプレイヤに出力する。別の局面において、HMD500は、スピーカ56に替えてイヤホンを含み得る。
コントローラ540は、有線または無線によりゲームプレイ端末300に接続されている。コントローラ540は、プレイヤからゲームプレイ端末300への命令の入力を受け付ける。ある局面において、コントローラ540は、プレイヤによって把持可能に構成される。別の局面において、コントローラ540は、プレイヤの身体あるいは衣類の一部に装着可能に構成される。さらに別の局面において、コントローラ540は、ゲームプレイ端末300から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。さらに別の局面において、コントローラ540は、プレイヤから、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。
ある局面において、コントローラ540は、複数の光源を含む。各光源は例えば、赤外線を発するLEDにより実現される。HMDセンサ510は、ポジショントラッキング機能を有する。この場合、HMDセンサ510は、コントローラ540が発する複数の赤外線を読み取り、現実空間内におけるコントローラ540の位置および傾きを検出する。別の局面において、HMDセンサ510は、カメラにより実現されてもよい。この場合、HMDセンサ510は、カメラから出力されるコントローラ540の画像情報を用いて、画像解析処理を実行することにより、コントローラ540の位置および傾きを検出することができる。
モーションセンサ520は、ある局面において、プレイヤの手に取り付けられて、プレイヤの手の動きを検出する。例えば、モーションセンサ520は、手の回転速度、回転数等を検出する。検出された信号は、ゲームプレイ端末300に送られる。モーションセンサ520は、例えば、コントローラ540に設けられている。ある局面において、モーションセンサ520は、例えば、プレイヤに把持可能に構成されたコントローラ540に設けられている。別の局面において、現実空間における安全のため、コントローラ540は、手袋型のようにプレイヤの手に装着されることにより容易に飛んで行かないものに装着される。さらに別の局面において、プレイヤに装着されないセンサがプレイヤの手の動きを検出してもよい。例えば、プレイヤを撮影するカメラの信号が、プレイヤの動作を表わす信号として、ゲームプレイ端末300に入力されてもよい。モーションセンサ520とゲームプレイ端末300とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetoothその他の公知の通信手法が用いられる。
ディスプレイ530は、モニタ51に表示されている画像と同様の画像を表示する。これにより、HMD500を装着しているプレイヤ以外のユーザにもプレイヤと同様の画像を視聴させることができる。ディスプレイ530に表示される画像は、3次元画像である必要はなく、右目用の画像や左目用の画像であってもよい。ディスプレイ530としては、例えば、液晶ディスプレイや有機ELモニタなどが挙げられる。
ゲームプレイ端末300は、HMD500の各部、コントローラ540、およびモーションセンサ520から取得した各種情報に基づいて、プレイヤの操作対象となるキャラクタを動作させ、ゲームを進行させる。ここでの「動作」には、身体の各部を動かすこと、姿勢を変えること、顔の表情を変えること、移動、発話、仮想空間に配置されたオブジェクトに触れたり、動かしたりすること、キャラクタが把持する武器、道具などを使用することなどが含まれる。すなわち、本ゲームでは、プレイヤが身体の各部を動かすことにより、キャラクタもプレイヤと同様に身体の各部を動かす。また、本ゲームでは、プレイヤが発話した内容をキャラクタが発話する。換言すれば、本ゲームにおいて、キャラクタは、プレイヤの分身としてふるまうアバターオブジェクトである。一例として、キャラクタの動作の少なくとも一部が、プレイヤによるコントローラ540に対する入力により実行されてもよい。
本実施形態では、モーションセンサ520は、一例として、プレイヤの両手、プレイヤの両足、プレイヤの腰部、および、プレイヤの頭部に取り付けられる。プレイヤの両手に取り付けられるモーションセンサ520は、上述したとおり、コントローラ540に設けられていてもよい。また、プレイヤの頭部に取り付けられるモーションセンサ520は、HMD500に設けられていてもよい。モーションセンサ520は、さらに、ユーザの両肘や両膝に取り付けられてもよい。プレイヤに取り付けるモーションセンサ520の数を増やすことにより、プレイヤの動きをより正確にキャラクタに反映させることができる。また、プレイヤは、モーションセンサ520を身体の各部に取り付けることに代えて、1以上のモーションセンサ520が取り付けられたスーツを着用してもよい。つまり、モーションキャプチャの方法は、モーションセンサ520を用いる例に限定されない。
(配信端末400)
配信端末400は、スマートフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。また、配信端末400は、デスクトップパソコン等の、いわゆる据え置き型の端末であってもよい。
配信端末400は、図5に示すように、プロセッサ40と、メモリ41と、ストレージ42と、通信IF43と、入出力IF44と、タッチスクリーン45とを備える。なお、配信端末400は、タッチスクリーン45に代えて、または、加えて、配信端末400本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF44を備えていてもよい。
コントローラ1021は、1つ以上のボタン、レバー、スティック、ホイール等の物理的な入力機構を有していてもよい。コントローラ1021は、配信端末400の操作者(本実施形態ではプレイヤ)が、該入力機構に対して入力した入力操作に基づく出力値を配信端末400へ送信する。また、コントローラ1021は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値を配信端末400へ送信してもよい。上述の出力値は、通信IF43を介して配信端末400に受け付けられる。
配信端末400は、カメラと、測距センサ(ともに不図示)とを備えていてもよい。配信端末400が備えることに代えて、または、加えて、コントローラ1021がカメラと、測距センサとを有してしてもよい。
以上で説明したとおり、配信端末400は、該配信端末400に対して情報を入力する機構の一例として、通信IF43、入出力IF44、タッチスクリーン45を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
操作部がタッチスクリーン45で構成されている場合、配信端末400は、タッチスクリーン45の入力部451に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF43で構成される場合、配信端末400は、コントローラ1021から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF44で構成される場合、配信端末400は、該入出力IF44と接続される入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
<各装置のハードウェア構成要素>
プロセッサ10、20、30、40はそれぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400の全体の動作を制御する。プロセッサ10、20、30、40は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。プロセッサ10、20、30、40は、それぞれ、後述するストレージ12、22、32、42からプログラムを読み出す。そして、プロセッサ10、20、30、40は、それぞれ、読み出したプログラムを、後述するメモリ11、21、31、41に展開する。プロセッサ10、20、30は、展開したプログラムを実行する。
メモリ11、21、31、41は主記憶装置である。メモリ11、21、31、41は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ41は、プロセッサ40が後述するストレージ42から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ40に作業領域を提供する。メモリ41は、プロセッサ40がプログラムに従って動作している間に生成した各種データも一時的に記憶する。
本実施形態において、プロセッサ10および30が実行するプログラムは、本ゲームのゲームプログラムであってもよい。本実施形態において、プロセッサ40が実行するプログラムは、動作指図データの配信を実現するための配信プログラムであってもよい。また、プロセッサ10は、さらに、動画の再生を実現するための視聴プログラムを実行してもよい。
本実施形態において、プロセッサ20が実行するプログラムは、上述のゲームプログラム、配信プログラム、視聴プログラムの少なくとも何れかであってもよい。プロセッサ20は、ユーザ端末100、ゲームプレイ端末300、および配信端末400の少なくとも何れかからの要求等に応じて、ゲームプログラム、配信プログラム、視聴プログラムの少なくとも何れかを実行する。なお、配信プログラムと視聴プログラムは、並行して実行されてもよい。
すなわち、ゲームプログラムは、ゲームをユーザ端末100、サーバ200、およびゲームプレイ端末300の協働により実現するプログラムであってもよい。配信プログラムは、動作指図データの配信を、サーバ200と配信端末400との協働により実現するプログラムであってもよい。視聴プログラムは、動画の再生を、ユーザ端末100とサーバ200との協働により実現するプログラムであってもよい。
ストレージ12、22、32、42は補助記憶装置である。ストレージ12、22、32、42は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12、32には、例えば、ゲームに関する各種データが格納される。ストレージ42には、動作指図データの配信に関する各種データが格納される。また、ストレージ12には、動画の再生に関する各種データが格納される。ストレージ22には、ゲーム、動作指図データの配信、および動画の再生それぞれに関する各種データのうち、少なくとも一部が格納されてもよい。
通信IF13、23、33、43は、それぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400における各種データの送受信を制御する。通信IF13、23、33、43は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。
入出力IF14、24、34、44は、それぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400がデータの入力を受け付けるため、また、データを出力するためのインターフェースである。入出力IF14、24、34、44は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14、24、34、44は、物理ボタン、カメラ、マイク、スピーカ、マウス、キーボード、ディスプレイ、スティック、レバーなどを含み得る。また、入出力IF14、24、34、44は、周辺機器との間でデータを送受信するための接続部を含み得る。
タッチスクリーン15は、入力部151と表示部152(ディスプレイ)とを組み合わせた電子部品である。タッチスクリーン45は、入力部451と表示部452とを組み合わせた電子部品である。入力部151および451は、一例として、タッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152および452 は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。
入力部151および451は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151および451 は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。
図示していないが、ユーザ端末100および配信端末400は、それぞれ、ユーザ端末100および配信端末400の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。
ユーザ端末100および配信端末400がセンサを備えている場合、プロセッサ10および40は、それぞれ、センサの出力からユーザ端末100および配信端末400の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10および40は、それぞれ、ユーザ端末100および配信端末400が縦向きに保持されているときには、縦長の画像を表示部152および452に表示させる縦画面表示としてもよい。一方、ユーザ端末100および配信端末400が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10および40は、それぞれ、ユーザ端末100および配信端末400の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。
<システム1の機能的構成>
図6は、システム1に含まれるユーザ端末100、サーバ200、およびHMDセット1000の機能的構成を示すブロック図である。図7は、図6に示す配信端末400の機能的構成を示すブロック図である。
ユーザ端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。ユーザ端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、入出力IF14、およびタッチスクリーン15等の協働によって、制御部110および記憶部120として機能する。
サーバ200は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する機能を有する。サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。
HMDセット1000(ゲームプレイ端末300)は、プレイヤの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能と、ゲーム進行情報を、サーバ200を介してユーザ端末100へリアルタイムに送信する機能を有する。HMDセット1000は、ゲームプレイ端末300のプロセッサ30、メモリ31、ストレージ32、通信IF33、入出力IF34、並びに、HMD500、HMDセンサ510、モーションセンサ520、およびコントローラ540等の協働によって、制御部310および記憶部320として機能する。
配信端末400は、動作指図データを生成して、該動作指図データを、サーバ200を介してユーザ端末100へ送信する機能を有する。配信端末400は、プロセッサ40、メモリ41、ストレージ42、通信IF43、入出力IF44、およびタッチスクリーン45等の協働によって、制御部410および記憶部420として機能する。
(各装置の記憶部が格納するデータ)
記憶部120は、ゲームプログラム131(プログラム)、ゲーム情報132、および、ユーザ情報133を格納する。記憶部220は、ゲームプログラム231、ゲーム情報232、ユーザ情報233、および、ユーザリスト234を格納する。記憶部320は、ゲームプログラム331、ゲーム情報332、および、ユーザ情報333を格納する。記憶部420は、ユーザリスト421、モーションリスト422、配信プログラム423(プログラム、第2プログラム)を格納する。
ゲームプログラム131、231、331は、それぞれ、ユーザ端末100、サーバ200、HMDセット1000が実行するゲームプログラムである。ゲームプログラム131、231、331に基づいて各装置が協働して動作することにより、本ゲームが実現される。なお、ゲームプログラム131および331は、記憶部220に格納され、ユーザ端末100およびHMDセット1000にそれぞれダウンロードされる構成でもよい。なお、本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、配信端末400から受信したデータをレンダリングし、動画を再生するものとする。換言すれば、ゲームプログラム131は、配信端末400から配信された動画指図データを用いて、動画を再生するためのプログラムでもある。該動画を再生するためのプログラムは、ゲームプログラム131と異なってもよい。この場合、記憶部120は、ゲームプログラム131とは別に、該動画を再生するためのプログラムを格納する。
ゲーム情報132、232、332は、それぞれ、ユーザ端末100、サーバ200、HMDセット1000がゲームプログラムを実行する際に参照するデータである。ユーザ情報133、233、333は、ユーザ端末100のユーザのアカウントに関するデータである。ゲーム情報232は、各ユーザ端末100のゲーム情報132、および、HMDセット1000のゲーム情報332である。ユーザ情報233は、各ユーザ端末100のユーザ情報133、および、ユーザ情報333に含まれる、プレイヤのユーザ情報である。ユーザ情報333は、各ユーザ端末100のユーザ情報133、および、プレイヤのユーザ情報である。
ユーザリスト234およびユーザリスト421は、ゲームに参加したユーザのリストである。ユーザリスト234およびユーザリスト421は、プレイヤによる直近のゲームプレイにおいて参加したユーザのリストの他、該ゲームプレイ以前の各ゲームプレイにおいて参加したユーザのリストを含んでいてもよい。モーションリスト422は、予め作成されている複数のモーションデータのリストである。モーションリスト422は、例えば、各モーションを識別する情報(例えば、モーション名)のそれぞれに、モーションデータが対応付けられたリストである。配信プログラム423は、ユーザ端末100にて動画を再生するための動作指図データの、ユーザ端末100への配信を実現するためのプログラムである。
(サーバ200の機能的構成)
制御部210は、記憶部220に格納されたゲームプログラム231を実行することにより、サーバ200を統括的に制御する。例えば制御部210は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する。
制御部210は、ゲームプログラム231の記述に応じて、通信仲介部211、ログ生成部212、リスト生成部213として機能する。制御部210は、ゲームプレイおよび動作指図データの配信に係る各種情報の送受信の仲介、並びに、ゲームの進行の支援のために、図示しないその他の機能ブロックとしても機能することができる。
通信仲介部211は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する。例えば、通信仲介部211は、HMDセット1000から受信したゲーム進行情報をユーザ端末100へ送信する。ゲーム進行情報は、プレイヤによって操作されるキャラクタの動き、該キャラクタのパラメータ、該キャラクタが所持しているアイテムや武器、敵キャラクタなどの情報などを示すデータが含まれる。サーバ200は、ゲーム進行情報を、ゲームに参加している全てのユーザのユーザ端末100へ送信する。換言すれば、サーバ200は、共通のゲーム進行情報をゲームに参加している全てのユーザのユーザ端末100へ送信する。これにより、ゲームに参加している全てのユーザのユーザ端末100それぞれにおいて、HMDセット1000と同様にゲームが進行する。
また、例えば、通信仲介部211は、ユーザ端末100のいずれかから受信した、プレイヤによるゲームの進行を支援するための情報を、その他のユーザ端末100、および、HMDセット1000へ送信する。該情報は、一例として、プレイヤがゲームを有利に進行するためのアイテムであって、プレイヤ(キャラクタ)に提供されるアイテムを示すアイテム情報であってもよい。アイテム情報は、アイテムを提供したユーザを示す情報(ユーザ名、ユーザIDなど)を含む。また、通信仲介部211は、配信端末400からユーザ端末100への動作指図データの配信を仲介してもよい。
ログ生成部212は、HMDセット1000から受信するゲーム進行情報に基づいて、ゲーム進行のログを生成する。リスト生成部213は、ゲームプレイの終了後にユーザリスト234を生成する。詳細については後述するが、ユーザリスト234における各ユーザには、そのユーザが行ったプレイヤへの支援の内容を示すタグが関連付けられている。リスト生成部213は、ログ生成部212が生成したゲーム進行のログに基づいて、タグを生成し、該当するユーザに関連付ける。なお、リスト生成部213は、ゲームの運営者などがパーソナルコンピュータなどの端末装置を用いて入力した、各ユーザが行ったプレイヤへの支援の内容を、タグとして、該当するユーザに関連付けてもよい。これにより、各ユーザが行った支援の内容がより詳細なものとなる。なお、ユーザ端末100は、ユーザがゲームに参加する際、ユーザの操作に基づいて、ユーザを示す情報をサーバ200へ送信する。例えば、ユーザ端末100は、ユーザが入力したユーザIDをサーバ200へ送信する。つまり、サーバ200は、ゲームに参加している全てのユーザについて、各ユーザを示す情報を保持している。リスト生成部213は、該情報を用いて、ユーザリスト234を生成すればよい。
(HMDセット1000の機能的構成)
制御部310は、記憶部320に格納されたゲームプログラム331を実行することにより、HMDセット1000を統括的に制御する。例えば、制御部310は、ゲームプログラム331、および、プレイヤの操作に従って、ゲームを進行させる。また、制御部310は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部310は、情報の送受信を、サーバ200を介さずにユーザ端末100と直接行ってもよい。
制御部310は、ゲームプログラム331の記述に応じて、操作受付部311、表示制御部312、UI制御部313、アニメーション生成部314、ゲーム進行部315、仮想空間制御部316、および反応処理部317として機能する。制御部310は、実行されるゲームの性質に応じて、該ゲームに登場するキャラクタの制御などのために、図示しないその他の機能ブロックとしても機能することができる。
操作受付部311は、プレイヤの入力操作を検知し、受け付ける。操作受付部311は、HMD500、モーションセンサ520、コントローラ540などから入力された信号を受け付け、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に出力する。
UI制御部313は、モニタ51、ディスプレイ530などに表示させるユーザインターフェース(以下、UI)画像を制御する。UI画像は、プレイヤが、ゲームの進行上必要な入力をHMDセット1000に対して行うためのツール、または、ゲームの進行中に出力される情報をHMDセット1000から得るためのツールである。UI画像は、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。
アニメーション生成部314は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部314は、オブジェクト(例えば、プレイヤのアバターオブジェクト)がまるでそこにいるかのように動いたり、口を動かしたり、表情を変えたりする様子を表現したアニメーション等を生成してもよい。
ゲーム進行部315は、ゲームプログラム331、プレイヤによる入力操作、および、該入力操作に応じたアバターオブジェクトの動作などに基づいて、ゲームを進行する。例えば、ゲーム進行部315は、アバターオブジェクトが所定の動作を行った場合に、所定のゲーム処理を行う。また、例えば、ゲーム進行部315は、ユーザ端末100におけるユーザの操作を表す情報を受信し、当該ユーザの操作に基づいてゲーム処理を行ってもよい。また、ゲーム進行部315は、ゲームの進行に従ってゲーム進行情報を生成し、サーバ200へ送信する。該ゲーム進行情報は、サーバ200を介してユーザ端末100へ送信される。これにより、HMDセット1000におけるゲームの進行が、ユーザ端末100において共有される。換言すれば、HMDセット1000におけるゲームの進行と、ユーザ端末100におけるゲームの進行とが同期する。
仮想空間制御部316は、ゲームの進行に応じて、プレイヤに提供される仮想空間に関する各種の制御を行う。一例として、仮想空間制御部316は、各種オブジェクトを生成し、仮想空間に配置する。また、仮想空間制御部316は、仮想カメラを仮想空間に配置する。また、仮想空間制御部316は、ゲームの進行に応じて、仮想空間に配置した各種オブジェクトを動作させる。また、仮想空間制御部316は、ゲームの進行に応じて、仮想空間に配置した仮想カメラの位置、傾きを制御する。
表示制御部312は、モニタ51、ディスプレイ530に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部312は、仮想空間に配置された仮想カメラからの視界に基づく画像を、ゲーム画面として、モニタ51、ディスプレイ530に表示してもよい。また、表示制御部312は、アニメーション生成部314によって生成されたアニメーションを該ゲーム画面に含めてもよい。また、表示制御部312は、UI制御部313によって制御される上述のUI画像を、該ゲーム画面に重畳して描画してもよい。
反応処理部317は、ユーザ端末100のユーザによる、プレイヤのゲームプレイに対する反応についてフィードバックを受け付けて、これを、プレイヤに対して出力する。本実施形態では、例えば、ユーザ端末100は、ユーザの入力操作に基づいて、アバターオブジェクトに宛てたコメント(メッセージ)を作成することができる。反応処理部317は、該コメントのコメントデータを受け付けて、これを出力する。反応処理部317は、ユーザのコメントに対応するテキストデータを、モニタ51、ディスプレイ530に表示してもよいし、ユーザのコメントに対応する音声データを、図示しないスピーカから出力してもよい。前者の場合、反応処理部317は、上記テキストデータに対応する画像(すなわち、コメントの内容を含む画像)を、ゲーム画面に重畳して描画してもよい。
(ユーザ端末100の機能的構成)
制御部110は、記憶部120に格納されたゲームプログラム131を実行することにより、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム131、および、ユーザの操作に従って、ゲームを進行させる。また、制御部110は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部110は、情報の送受信を、サーバ200を介さずにHMDセット1000と直接行ってもよい。
制御部110は、ゲームプログラム131の記述に応じて、操作受付部111、表示制御部112、UI制御部113、アニメーション生成部114、ゲーム進行部115、仮想空間制御部116、および動画再生部117として機能する。制御部110は、実行されるゲームの性質に応じて、ゲームの進行のために、図示しないその他の機能ブロックとしても機能することができる。
操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。
例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。
UI制御部113は、ユーザの入力操作、および、受信したゲーム進行情報の少なくとも何れかに応じて、UIを構築するために表示部152に表示させるUI画像を制御する。UI画像は、ユーザが、ゲームの進行上必要な入力をユーザ端末100に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末100から得るためのツールである。UI画像は、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。
アニメーション生成部114は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。
ゲーム進行部115は、ゲームプログラム131、受信したゲーム進行情報、および、ユーザによる入力操作などに基づいて、ゲームを進行する。ゲーム進行部115は、ユーザによる入力操作により、所定のゲーム処理を行った場合、該ゲーム処理に関する情報を、サーバ200を介してHMDセット1000へ送信する。これにより、該所定のゲーム処理が、HMDセット1000において共有される。換言すれば、HMDセット1000におけるゲームの進行と、ユーザ端末100におけるゲームの進行とが同期する。所定のゲーム処理とは、例えば、アバターオブジェクトにアイテムを提供する処理であり、この例の場合、ゲーム処理に関する情報は、上述したアイテム情報である。
仮想空間制御部116は、ゲームの進行に応じて、ユーザに提供される仮想空間に関する各種の制御を行う。一例として、仮想空間制御部116は、各種オブジェクトを生成し、仮想空間に配置する。また、仮想空間制御部116は、仮想カメラを仮想空間に配置する。また、仮想空間制御部116は、ゲームの進行、具体的には、受信したゲーム進行情報に応じて、仮想空間に配置した各種オブジェクトを動作させる。また、仮想空間制御部316は、ゲームの進行、具体的には、受信したゲーム進行情報に応じて、仮想空間に配置した仮想カメラの位置、傾きを制御する。
表示制御部112は、表示部152に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部112は、ユーザに提供される仮想空間に配置された仮想カメラからの視界に基づく画像を、ゲーム画面として、表示部152に表示してもよい。また、表示制御部112は、アニメーション生成部114によって生成されたアニメーションを該ゲーム画面に含めてもよい。また、表示制御部112は、UI制御部113によって制御される上述のUI画像を、該ゲーム画面に重畳して描画してもよい。いずれにしても、表示部152に表示されるゲーム画面は、他のユーザ端末100、および、HMDセット1000にて表示されるゲーム画面と同様のゲーム画面である。
動画再生部117は、配信端末400から受信した動作指図データを解析(レンダリング)し、動画を再生する。
(配信端末400の機能的構成)
制御部410は、記憶部420に格納されたプログラム(不図示)を実行することにより、配信端末400を統括的に制御する。例えば、制御部410は、該プログラム、および、配信端末400のユーザ(本実施形態ではプレイヤ)の操作に従って、動作指図データを生成し、ユーザ端末100に配信する。また、制御部410は、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部410は、情報の送受信を、サーバ200を介さずにユーザ端末100と直接行ってもよい。
制御部410は、プログラムの記述に応じて、通信制御部411、表示制御部412、操作受付部413、音声受付部414、モーション特定部415、および動作指図データ生成部416として機能する。制御部410は、動作指図データの生成および配信のために、図示しないその他の機能ブロックとしても機能することができる。
通信制御部411は、サーバ200、または、サーバ200を介したユーザ端末100との情報の送受信を制御する。通信制御部411は、一例として、サーバ200からユーザリスト421を受信する。また、通信制御部411は、一例として、動作指図データをユーザ端末100へ送信する。
表示制御部412は、表示部452に対して、各要素によって実行された処理結果が反映された各種画面を出力する。表示制御部412は、一例として、受信したユーザリスト234を含む画面を表示する。また、表示制御部412は、一例として、配信する動作指図データに含まれる、アバターオブジェクトを動作させるためのモーションデータを、プレイヤに選択させるためのモーションリスト422を含む画面を表示する。
操作受付部413は、入力部151に対するプレイヤの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン45およびその他の入出力IF44を介したコンソールに対してプレイヤが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部410の各要素に出力する。
例えば、操作受付部413は、入力部451に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部413は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を特定する。また、操作受付部413は、連続して検知されていた入力が途切れると、タッチスクリーン45から接触入力が解除されたことを検知する。
音声受付部414は、配信端末400の周囲で発生した音声を受け付け、該音声の音声データを生成する。音声受付部414は、一例として、プレイヤが発話した音声を受け付け、該音声の音声データを生成する。
モーション特定部415は、プレイヤの入力操作に応じて、モーションリスト422から、プレイヤが選択したモーションデータを特定する。
動作指図データ生成部416は、動作指図データを生成する。一例として、動作指図データ生成部416は、生成された音声データと、特定されたモーションデータとを含む動作指図データを生成する。
なお、図6に示すHMDセット1000、サーバ200、およびユーザ端末100の機能、並びに、図7に示す配信端末400の機能は一例にすぎない。HMDセット1000、サーバ200、ユーザ端末100、および配信端末400の各装置は、他の装置が備える機能の少なくとも一部を備えていてもよい。さらに、HMDセット1000、サーバ200、ユーザ端末100、および配信端末400以外のさらに別の装置をシステム1の構成要素とし、該別の装置にシステム1における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、HMDセット1000、サーバ200、ユーザ端末100、および配信端末400、並びに、それ以外の別の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。
<仮想空間の制御処理>
図8は、プレイヤに提供される仮想空間、および、ユーザ端末100のユーザに提供される仮想空間の制御処理の流れの一例を示すフローチャートである。図9は、ある実施の形態に従う、プレイヤに提供される仮想空間600A、および、プレイヤが視認する視界画像を示す図である。図10は、ある実施の形態に従う、ユーザ端末100のユーザに提供される仮想空間600B、および、ユーザが視認する視界画像を示す図である。なお以降、仮想空間600Aおよび600Bを区別する必要が無い場合、「仮想空間600」と記載する。
ステップS1において、プロセッサ30は、仮想空間制御部316として、図9に示す仮想空間600Aを規定する。プロセッサ30は、仮想空間データ(不図示)を用いて、仮想空間600Aを規定する。仮想空間データは、ゲームプレイ端末300に記憶されていてもよいし、プロセッサ30が、ゲームプログラム331に基づいて生成してもよいし、プロセッサ30が、サーバ200などの外部の装置から取得してもよい。
仮想空間600は、一例として、中心として定義された点の360度方向の全体を覆う全天球状の構造を有する。図9および図10では、説明を複雑にしないために、仮想空間600のうちの上半分の天球が例示されている。
ステップS2において、プロセッサ30は、仮想空間制御部316として、仮想空間600Aに、アバターオブジェクト610(キャラクタ)を配置する。アバターオブジェクト610は、プレイヤに関連付けられたアバターオブジェクトであり、プレイヤの入力操作に従って動作する。
ステップS3において、プロセッサ30は、仮想空間制御部316として、仮想空間600Aに、その他のオブジェクトを配置する。図9の例では、プロセッサ30は、オブジェクト631~634を配置する。その他のオブジェクトは、例えば、ゲームプログラム331に従って動作するキャラクタオブジェクト(いわゆるノンプレイヤキャラクタ、NPC)、仮想手などの操作オブジェクト、ゲームの進行に従って配置される動物、植物、人工物、自然物などを模したオブジェクトなどを含み得る。
ステップS4において、プロセッサ30は、仮想空間制御部316として、仮想空間600Aに仮想カメラ620Aを配置する。プロセッサ30は、一例として、仮想カメラ620Aを、アバターオブジェクト610の頭部の位置に配置する。
ステップS5において、プロセッサ30は、視界画像650をモニタ51およびディスプレイ530に表示する。プロセッサ30は、仮想カメラ620Aの初期の位置と傾きとに応じて、仮想空間600Aにおける仮想カメラ620Aからの視界である視界領域640Aを定義する。そして、プロセッサ30は、視界領域640Aに対応する視界画像650を定義する。プロセッサ30は、視界画像650をモニタ51およびディスプレイ530に出力することによって、視界画像650をHMD500およびディスプレイ530に表示させる。
図9の例において、図9(A)に示すように、オブジェクト634の一部が視界領域640Aに含まれているため、視界画像650は、図9(B)に示すようにオブジェクト634の一部を含む。
ステップS6において、プロセッサ30は、初期配置情報を、サーバ200を介してユーザ端末100へ送信する。初期配置情報とは、仮想空間600Aにおける各種オブジェクトの初期の配置位置を示す情報である。図9の例において、初期配置情報は、アバターオブジェクト610、および、オブジェクト631~634の初期の配置位置の情報を含む。初期配置情報は、ゲーム進行情報の1つであると表現することもできる。
ステップS7において、プロセッサ30は、仮想空間制御部316として、HMD500の動きに応じて仮想カメラ620Aを制御する。具体的には、プロセッサ30は、HMD500の動き、すなわち、プレイヤの頭部の姿勢に応じて、仮想カメラ620Aの向きおよび傾きを制御する。後述のように、プロセッサ30は、プレイヤが頭部を動かす(頭部の姿勢を変更する)と、この動きに合わせて、アバターオブジェクト610の頭部を動かす。プロセッサ30は、例えば、アバターオブジェクト610の視線の方向と、仮想カメラ620Aの視線の方向とが一致するように、仮想カメラ620Aの向きおよび傾きを制御する。ステップS8において、プロセッサ30は、仮想カメラ620Aの向きおよび傾きが変更されたことに応じて、視界画像650を更新する。
ステップS9において、プロセッサ30は、仮想空間制御部316として、プレイヤの動きに応じて、アバターオブジェクト610を動かす。一例として、プロセッサ30は、プレイヤが現実空間で移動したことに応じて、仮想空間600Aでアバターオブジェクト610を移動させる。また、プロセッサ30は、プレイヤが現実空間で頭部を動かしたことに応じて、仮想空間600Aでアバターオブジェクト610の頭部を動かす。
ステップS10において、プロセッサ30は、仮想空間制御部316として、仮想カメラ620Aを、アバターオブジェクト610に追随するように移動させる。つまり、仮想カメラ620Aは、アバターオブジェクト610が移動しても、常にアバターオブジェクト610の頭部の位置にある。
プロセッサ30は、仮想カメラ620Aの移動に応じて、視界画像650を更新する。つまり、プロセッサ30は、プレイヤの頭部の姿勢と、仮想空間600Aにおける仮想カメラ620Aの位置とに応じて、視界領域640Aを更新する。その結果、視界画像650が更新される。
ステップS11において、プロセッサ30は、アバターオブジェクト610の動作指図データを、サーバ200を介してユーザ端末100へ送信する。ここでの動作指図データは、仮想体験中(例えば、ゲームプレイ中)において、プレイヤの動作を取り込んだモーションデータ、プレイヤが発話した音声の音声データ、コントローラ540に対する入力操作の内容を示す操作データの少なくとも何れかを含む。プレイヤがゲームをプレイしている場合、動作指図データは、例えば、ゲーム進行情報としてユーザ端末100へ送信される。
ステップS7~S11の処理は、プレイヤがゲームをプレイしている間、継続して繰り返し実行される。
ステップS21において、ユーザ3のユーザ端末100のプロセッサ10は、仮想空間制御部116として、図10に示す仮想空間600Bを規定する。プロセッサ10は、仮想空間データ(不図示)を用いて、仮想空間600Bを規定する。仮想空間データは、ユーザ端末100に記憶されていてもよいし、プロセッサ10が、ゲームプログラム131に基づいて生成してもよいし、プロセッサ10が、サーバ200などの外部の装置から取得してもよい。
ステップS22において、プロセッサ10は、初期配置情報を受信する。ステップS23において、プロセッサ10は、仮想空間制御部116として、初期配置情報に応じて各種オブジェクトを仮想空間600Bに配置する。図10の例の場合、各種オブジェクトは、アバターオブジェクト610、および、オブジェクト631~634である。
ステップS24において、プロセッサ10は、仮想空間制御部116として、仮想空間600Bに仮想カメラ620Bを配置する。プロセッサ10は、一例として、仮想カメラ620Bを、図10(A)に示す位置に配置する。
ステップS25において、プロセッサ10は、視界画像660を表示部152に表示する。プロセッサ10は、仮想カメラ620Bの初期の位置と傾きとに応じて、仮想空間600Bにおける仮想カメラ620Bからの視界である視界領域640Bを定義する。そして、プロセッサ10は、視界領域640Bに対応する視界画像660を定義する。プロセッサ10は、視界画像660を表示部152に出力することによって、視界画像660を表示部152に表示させる。
図10の例において、図10(A)に示すように、アバターオブジェクト610およびオブジェクト631が視界領域640Bに含まれているため、視界画像660は、図10(B)に示すようにアバターオブジェクト610およびオブジェクト631を含む。
ステップS26において、プロセッサ10は、動作指図データを受信する。ステップS27において、プロセッサ10は、仮想空間制御部116として、動作指図データに応じて、仮想空間600Bでアバターオブジェクト610を動かす。換言すれば、プロセッサ10は、リアルタイムレンダリングにより、アバターオブジェクト610が動作している映像を再生する。
ステップS28において、プロセッサ10は、仮想空間制御部116として、操作受付部111として受け付けたユーザの操作に応じて仮想カメラ620Bを制御する。ステップS29において、プロセッサ10は、仮想カメラ620Bの仮想空間600Bにおける位置、仮想カメラ620Bの向きおよび傾きが変更されたことに応じて、視界画像660を更新する。なお、ステップS28において、プロセッサ10は、アバターオブジェクト610の動き、例えば、アバターオブジェクト610の移動や、向きの変更に応じて仮想カメラ620Bを自動的に制御してもよい。例えば、プロセッサ10は、常にアバターオブジェクト610を正面から撮影するように自動的に仮想カメラ620Bを移動させたり、向きおよび傾きを変更したりしてもよい。また、一例として、プロセッサ10は、アバターオブジェクト610の動きに応じて、常にアバターオブジェクト610を後方から撮影するように自動的に仮想カメラ620Bを移動させたり、向きおよび傾きを変更したりしてもよい。
このように、仮想空間600Aにおいて、アバターオブジェクト610は、プレイヤの動きに応じて動作する。この動作を示す動作指図データは、ユーザ端末100に送信される。仮想空間600Bにおいて、アバターオブジェクト610は、受信した動作指図データに応じて動作する。これにより、仮想空間600Aと仮想空間600Bとにおいて、アバターオブジェクト610は同様の動作を行う。換言すれば、ユーザ3は、ユーザ端末100を用いて、プレイヤの動作に応じたアバターオブジェクト610の動作を視認することができる。
<ゲーム概要>
図11は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体的には、プレイヤがプレイしている、システム1が実行するゲーム(本ゲーム)のゲーム画面の一例を示す図である。
本ゲームは、一例として、銃、ナイフなどの武器を操作するアバターオブジェクト610と、NPCである複数の敵オブジェクト671とを仮想空間600に登場させ、アバターオブジェクト610に敵オブジェクト671との対戦を行わせるゲームである。アバターオブジェクト610の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト671の残数等の各種ゲームパラメータは、ゲームの進行に応じて更新される。
本ゲームには、複数のステージが用意されており、プレイヤは、各ステージに関連付けられている所定の達成条件を成立させることにより、当該ステージをクリアすることができる。所定の達成条件としては、例えば、出現する敵オブジェクト671をすべて倒すことや、出現する敵オブジェクト671のうちボスオブジェクトを倒すこと、所定のアイテムを獲得すること、所定位置に到達することなどにより成立する条件を含むものであってもよい。該達成条件は、ゲームプログラム131内で定義されている。なお、本ゲームでは、ゲームの内容に即し、達成条件が成立された場合にプレイヤはステージをクリア、換言すれば、アバターオブジェクト610の敵オブジェクト671への勝利(アバターオブジェクト610と敵オブジェクト671との間の勝敗)が決定される。これに対し、例えば、システム1で実行されるゲームがレースゲーム等である場合、ゴールに到達するという条件が成立した場合に、アバターオブジェクト610の順位が決定される。
本ゲームでは、HMDセット1000及び複数のユーザ端末100の間で仮想空間を共有するために、ゲーム進行情報が、所定時間毎に複数のユーザ端末100にライブ配信される。この結果、ゲームを視聴中のユーザ端末100のタッチスクリーン15には、ユーザ端末100に対応する仮想カメラ620Bによって規定される視界領域の視界画像が表示される。また、視界画像の右上段および左上段には、アバターオブジェクト610の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト671の残数等を表すパラメータ画像が重畳的に表示される。この視界画像は、ゲーム画面と表現することもできる。
ゲーム進行情報は、上述したとおり、プレイヤの動作を取り込んだモーションデータ、プレイヤが発話した音声の音声データ、コントローラ540に対する入力操作の内容を示す操作データを含む。これらのデータはすなわち、アバターオブジェクト610の位置、姿勢、向きなどを特定するための情報、敵オブジェクト671の位置、姿勢、向きなどを特定する情報、その他オブジェクト(例えば、障害物オブジェクト672、673)の位置などを特定する情報である。プロセッサ10は、ゲーム進行情報を解析(レンダリング)することにより、各オブジェクトの位置、姿勢、向きなどを特定する。
ゲーム情報132は、アバターオブジェクト610、敵オブジェクト671、障害物オブジェクト672、673等の各種オブジェクトのデータを含む。プロセッサ10は、該データと、ゲーム進行情報の解析結果とを用いて、各オブジェクトの位置、姿勢、向きなどを更新する。これにより、ゲームが進行し、仮想空間600Bにおける各オブジェクトは、仮想空間600Aにおける各オブジェクトと同様に動く。具体的には、仮想空間600Bにおいて、アバターオブジェクト610を含む各オブジェクトは、ユーザ端末100に対するユーザからの操作の有無に関わらず、ゲーム進行情報に基づいて動作する。
ユーザ端末100のタッチスクリーン15においては、一例として、UI画像701および702が、視界画像に重畳して表示される。UI画像701は、アバターオブジェクト610を支援するためのアイテム投入操作をユーザ3から受け付けるUI画像711を、タッチスクリーン15に表示するための操作を受け付けるUI画像である。UI画像702は、アバターオブジェクト610(換言すれば、プレイヤ4)に対するコメントを入力し、送信するための操作をユーザ3から受け付けるUI画像(後述)を、タッチスクリーン15に表示するための操作を受け付けるUI画像である。UI画像701および702が受け付ける操作は、例えば、UI画像701および702をタップする操作であってもよい。
UI画像701がタップされると、UI画像711が、視界画像に重畳して表示される。UI画像711は、例えば、マガジンのアイコンが描かれたUI画像711A、救急箱のアイコンが描かれたUI画像711B、三角コーンのアイコンが描かれたUI画像711C、バリケードのアイコンが描かれたUI画像711Dを含む。アイテム投入操作は、例えば、いずれかのUI画像をタップする操作に相当する。
一例として、UI画像711Aがタップされると、アバターオブジェクト610が使用する銃の残弾数が増加する。UI画像711Bがタップされると、アバターオブジェクト610の体力が回復する。UI画像711Cおよび711Dがタップされると、敵オブジェクト671の移動を妨害する障害物オブジェクト672、673が仮想空間に配置される。障害物オブジェクト672、673は、一方が他方に比べて、敵オブジェクト671の移動をより妨害するものであってもよい。
プロセッサ10は、アイテム投入操作が行われたことを示すアイテム投入情報を、サーバ200へ送信する。アイテム投入情報には、アイテム投入操作により指定されたアイテムの種別を特定するための情報が少なくとも含まれる。アイテム投入情報には、アイテムが配置される位置を示す情報など、アイテムに関するその他の情報が含まれていてもよい。アイテム投入情報は、サーバ200を介して、他のユーザ端末100、および、HMDセット1000へ送信される。
図12は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体的には、本ゲームのゲーム画面の一例を示す図であり、ゲームプレイ中のプレイヤとユーザ端末100とのコミュニケーションについて説明するための図である。
図12(A)の例において、ユーザ端末100は、アバターオブジェクト610に発話691を実行させている。具体的には、ユーザ端末100は、ゲーム進行情報に含まれる音声データに従って、アバターオブジェクト610に発話691を実行させている。発話691の内容は、プレイヤ4が発話した「弾が無いよー!」というものである。すなわち、発話691の内容は、マガジンが0、銃に装填した銃弾が1となったことにより、敵オブジェクト671を攻撃する手段を失いそうであることを各ユーザに伝えるものである。
なお、図12(A)では、アバターオブジェクト610の発話を視覚的に示すため吹き出しを用いているが、実際は、ユーザ端末100のスピーカから音声が出力される。なお、音声出力とともに、図12(A)に示す吹き出し(すなわち、音声の内容のテキストを含む吹き出し)が視界画像中に表示されてもよい。これは、後述する発話692でも同様である。
UI画像702に対するタップ操作を受け付けると、ユーザ端末100は、図12(B)に示すように、UI画像705および706(メッセージUI)を視界画像に重畳して表示する。UI画像705は、アバターオブジェクト610(換言すれば、プレイヤ)に対するコメントを表示するUI画像である。UI画像706は、入力されたコメントを送信するためコメント送信操作をユーザ3から受け付けるUI画像である。
ユーザ端末100は、一例として、UI画像705へのタップ操作を受け付けると、キーボードを模したUI画像(不図示、以下、単に「キーボード」と記載)をタッチスクリーン15に表示させる。ユーザ端末100は、キーボードに対するユーザの入力操作に応じたテキストを、UI画像705に表示させる。図12(B)の例では、「マガジン送るね」というテキストがUI画像705に表示されている。
ユーザ端末100は、テキスト入力後に、一例として、UI画像706へのタップ操作を受け付けると、入力した内容(テキストの内容)を示す情報と、ユーザを示す情報とを含むコメント情報をサーバ200へ送信する。コメント情報は、サーバ200を介して、他のユーザ端末100、および、HMDセット1000へ送信される。
UI画像703Aは、コメントを送信したユーザのユーザ名を示すUI画像であり、UI画像704Aは、該ユーザが送信したコメントの内容を示すUI画像である。図12(B)の例では、ユーザ名が「BBBBB」であるユーザが、自身のユーザ端末100を用い、「危ない!」という内容のコメント情報を送信したことにより、UI画像703AおよびUI画像704Aが表示されている。UI画像703AおよびUI画像704Aは、本ゲームに参加しているすべてのユーザ端末100のタッチスクリーン15、および、HMD500のモニタ51に表示される。なお、UI画像703Aおよび704Aは、1つのUI画像であってもよい。すなわち、1つのUI画像にユーザ名とコメントの内容とが含まれていてもよい。
図12(C)の例では、図12に示すユーザ端末100のユーザである、「AAAAA」というユーザ名のユーザが、上述したとおりコメントを入力し、送信したことにより、タッチスクリーン15にUI画像703Bおよび704Bが表示されている。UI画像703Bにはユーザ名「AAAAA」が含まれており、UI画像704Bには、図12(B)の例において入力された「マガジン送るね!」とのコメントが含まれている。
また、図12(C)の例は、ユーザ「AAAAA」がさらに、UI画像701へのタップ操作を入力し、UI画像711をタッチスクリーン15に表示させ、UI画像711Aへのタップ操作を入力した後の視界画像611である。つまり、ユーザ「AAAAA」のユーザ端末100から、他のユーザ端末100およびHMDセット1000に、マガジンを示すアイテム投入情報が送信された結果、ユーザ端末100およびHMDセット1000は、演出オブジェクト674(後述)を仮想空間600に配置している。一例として、ユーザ端末100およびHMDセット1000は、アイテム投入情報にて示された経過時間が経過した後に、演出オブジェクト674に関する演出を実行し、アイテムオブジェクトの効果を発動させる処理を実行する。
図12(D)の例では、アイテムオブジェクトの効果を発動させる処理の実行により、マガジンの数が0から1に増加している。この結果、プレイヤは、ユーザ「AAAAA」に対して、「ありがとう!」と発話し、該発話の音声データが、各ユーザ端末100に送信される。これにより、各ユーザ端末100は、アバターオブジェクト610の発話692として、「ありがとう!」という音声を出力する。
以上のように、本ゲームにおいては、プレイヤの発話に基づくアバターオブジェクト610の発話音声の出力と、各ユーザによるコメントの入力とにより、ユーザとアバターオブジェクト610とのコミュニケーションが実現される。
(ゲームプレイ端末300におけるゲーム進行処理)
図13は、ゲームプレイ端末300で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
ステップS31において、プロセッサ30は、ゲーム進行部315として、ゲームプログラム331とプレイヤの動きとに基づいてゲームを進行させる。ステップS32において、プロセッサ30は、ゲーム進行情報を生成し、ユーザ端末100へ配信する。具体的には、プロセッサ30は、生成したゲーム進行情報を、サーバ200を介して、各ユーザ端末100へ送信する。
ステップS33において、プロセッサ30は、アイテム投入情報を受信すると(S33でYES)、ステップS34において、アイテム投入情報に基づいて、アイテムオブジェクトを仮想空間600Aに配置する。一例として、プロセッサ30は、アイテムオブジェクトの配置の前に、演出オブジェクト674を仮想空間600Aに配置する(図11(C)参照)。演出オブジェクト674は、例えば、プレゼント箱を模したオブジェクトであってもよい。プロセッサ30は、一例として、アイテム投入情報にて示された経過時間が経過した後に、演出オブジェクト674に関する演出を実行してもよい。該演出は、例えば、プレゼント箱の蓋が開くアニメーションであってもよい。プロセッサ30は、該アニメーションの実行の後、アイテムオブジェクトの効果を発動させる処理を実行する。例えば、図11(D)の例では、障害物オブジェクト673を配置する。
プロセッサ30は、アニメーションの実行の後、タップ操作されたUI画像に対応するアイテムオブジェクトを仮想空間600Aに配置してもよい。例えば、UI画像711Aに対してタップ操作が行われた場合、プロセッサ30は、アニメーションの実行の後、マガジンを示すマガジンオブジェクトを仮想空間600Aに配置する。また、UI画像711Bに対してタップ操作が行われた場合、プロセッサ30は、アニメーションの実行の後、救急箱を示す救急箱オブジェクトを仮想空間600Aに配置する。プロセッサ30は、例えば、マガジンオブジェクトまたは救急箱オブジェクトの位置に、アバターオブジェクト610が移動した場合に、マガジンオブジェクトまたは救急箱オブジェクトの効果を発動させる処理を実行してもよい。
プロセッサ30は、ゲームが終了するまで、ステップS31~S34の処理を継続し、繰り返す。ゲームが終了した場合、例えば、プレイヤがゲームを終了するための所定の入力操作を入力した場合(ステップS35でYES)、図13に示す処理は終了する。
(ユーザ端末100におけるゲーム進行処理)
図14は、ユーザ端末100で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
ステップS41において、プロセッサ10は、ゲーム進行情報を受信する。ステップS42において、プロセッサ10は、ゲーム進行部115として、ゲーム進行情報に基づいてゲームを進行させる。
ステップS43において、プロセッサ10が、ユーザ3によるアイテム投入操作を受け付けると(ステップS43にてYES)、ステップS44において、プロセッサ10は、仮想通貨を消費し、演出オブジェクト674を仮想空間600Bに配置する。ここで、仮想通貨は、ゲームへの参加の前、あるいは、ゲームへの参加中に、ユーザ3がプロセッサ10に対し所定の操作を行うことにより購入(本ゲームに対して課金)されるものであってもよいし、所定の条件を満たした場合にユーザ3に付与されるものであってもよい。所定の条件とは、本ゲームにおけるクエストのクリア等、本ゲームへの参加が必要なものであってもよいし、アンケートに答える等、本ゲームへの参加が不要なものであってもよい。仮想通貨の金額(仮想通貨の所有量)は、一例として、ゲーム情報132としてユーザ端末100に記憶される。
ステップS45において、プロセッサ10は、アイテム投入情報をサーバ200へ送信する。アイテム投入情報は、サーバ200を介してゲームプレイ端末300へ送信される。
プロセッサ10は、演出オブジェクト674の配置後、所定時間が経過すると、アイテムオブジェクトを仮想空間600Aに配置する。図11の例では、障害物オブジェクト673を配置する。つまり、ユーザ3が、UI画像711Cへのタップ操作を入力することにより、所定量の仮想通貨が消費され、障害物オブジェクト673が配置される。
プロセッサ10は、ゲームが終了するまで、ステップS41~S45の処理を継続し、繰り返す。ゲームが終了した場合、例えば、プレイヤがゲームを終了するための所定の入力操作を行った場合や、ユーザ3が、ゲームから途中退席するための所定の入力操作を行った場合(ステップS46でYES)、図14に示す処理は終了する。
(サーバ200におけるゲーム進行処理)
図15は、サーバ200で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
ステップS51において、プロセッサ20は、ゲーム進行情報をゲームプレイ端末300から受信する。ステップS52において、プロセッサ20は、ログ生成部212として、ゲーム進行のログ(以下、プレイログ)を更新する。なお、プレイログは、一例として、ゲームプレイ端末300から初期配置情報を受信したとき、プロセッサ20が生成する。
ステップS53において、プロセッサ20は、受信したゲーム進行情報を、各ユーザ端末100へ送信する。
ステップS54において、アイテム投入情報をいずれかのユーザ端末100から受信した場合(ステップS54にてYES)、ステップS55において、プロセッサ20は、ログ生成部212としてプレイログを更新する。ステップS56において、プロセッサ20は、受信したアイテム投入情報をゲームプレイ端末300へ送信する。
プロセッサ20は、ゲームが終了するまで、ステップS51~S56の処理を継続し、繰り返す。ゲームが終了した場合、例えば、ゲームプレイ端末300から、ゲームが終了したことを示す情報を受信した場合(ステップS57でYES)、ステップS58において、プロセッサ20は、リスト生成部213として、プレイログからゲームに参加したユーザのリスト(ユーザリスト234)を生成する。プロセッサ20は、生成したユーザリスト234を、サーバ200に記憶する。
図16は、ユーザリスト234の一具体例を示す図である。「ユーザ」のカラムには、ゲームに参加した各ユーザを示す情報(例えば、ユーザ名)が格納されている。「タグ」のカラムには、各ユーザがプレイヤに対して行った支援に基づいて生成された情報(タグ)が格納されている。図16の例において、「タグ」のカラムに格納されたタグのうち、鍵括弧を有さないものは、プロセッサ20が自動生成した情報であり、鍵括弧を有するものは、ゲームの運営者が手動で入力した情報である。
図16の例において、ユーザ「AAAAA」には、マガジン、10F、ボス、「マガジンのプレゼントによりボスに勝利」という情報が対応付けられている。これは、例えば、10Fというステージでのボス戦において、ユーザ「AAAAA」がマガジンを投入し、その投入されたマガジンの銃弾でアバターオブジェクト610がボスに勝利したことを示している。
また、ユーザ「BBBBB」には、救急箱、3F、ザコ、「ゲームオーバー寸前で回復」という情報が対応付けられている、これは、例えば、3Fというステージのザコ敵との戦闘において、ユーザ「BBBBB」が救急箱を投入し、その結果、アバターオブジェクト610の体力が0になる(ゲームオーバーになる)寸前で体力が回復したことを示している。
また、ユーザ「CCCCC」には、バリケード、5F、ザコ、「バリケードでゾンビを二人足止め」という情報が対応付けられている。これは、例えば、5Fというステージのザコ敵との戦闘において、ユーザ「CCCCC」がバリケード(図11における障害物オブジェクト672)を投入し、その結果、二人のザコ敵の足止めに成功したことを示している。
図16の例では、各ユーザ3のユーザ名に対し、行った支援が1つ対応付けられているが、支援を複数回行なったユーザ3のユーザ名には、複数回の支援それぞれのタグが対応付けられる。ユーザリスト234において、該それぞれのタグは区別されていることが好ましい。これにより、ゲーム終了後に、配信端末400を用いてユーザリスト421を参照するプレイヤが、各支援の内容を正確に把握できる。
<動作指図データの配信>
(配信端末400における配信処理)
図17は、配信端末400で実行される配信処理の流れの一例を示すフローチャートである。図18は、配信端末400に表示される画面の一具体例を示す図である。図19は、配信端末に表示される画面の他の具体例を示す図である。
ステップS61において、プロセッサ40は、操作受付部413として、ゲームに参加したユーザのリスト(ユーザリスト234)を表示するための第1操作を受け付ける。図18(A)に示すダウンロード画面721は、ユーザリスト234をサーバ200からダウンロードし、表示部452に表示させるための画面である。ダウンロード画面721は、一例として、図17に示す配信処理を実行するアプリケーションの起動操作を、配信端末400に入力した直後に表示される画面である。
ダウンロード画面721は、一例として、UI画像722および723を含む。UI画像722は、ユーザリスト234をダウンロードするための操作、すなわち、上記第1操作を受け付ける。第1操作は、例えば、UI画像722をタップする操作であってもよい。UI画像723は、アプリケーションを終了するための操作を受け付ける。該操作は、例えば、UI画像723をタップする操作であってもよい。
UI画像722に対するタップ操作を受け付けると、ステップS62において、プロセッサ40は、通信制御部411として、ユーザリスト234をサーバ200から取得(受信)する。ステップS63において、プロセッサ40は、表示制御部412として、ユーザリスト234を表示部452に表示させる。具体的には、プロセッサ40は、ユーザリスト234に基づいて生成されたユーザリスト画面を、表示部452に表示させる。ユーザリスト画面は、一例として、図18(B)に示すユーザリスト画面731であってもよい。ユーザリスト画面731は、ユーザリスト234における各レコードに対応するレコード画像からなる。図18(B)の例では、レコード画像として、レコード画像732A~732Cを記載しているが、レコード画像の数は3つに限定されない。図18(B)の例において、ユーザリスト234におけるレコードの数が3より多い(すなわち、ゲームに参加したユーザの人数が3人より多い)場合、プレイヤは、例えば画面をスクロールする操作(例えば、ドラッグ操作やフリック操作)をタッチスクリーン45に入力することにより、他のレコード画像を表示部452に表示させることができる。
一例として、レコード画像732A~732Cは、それぞれ、ユーザ名733A~733C、タグ情報734A~734C、および、アイコン735A~735Cを含む。以降、レコード画像732A~732C、ユーザ名733A~733C、タグ情報734A~734C、および、アイコン735A~735Cについて、区別する必要が無い場合、それぞれ、「レコード画像732」、「ユーザ名733」、「タグ情報734」、「アイコン735」と記載する。
ユーザ名733は、ユーザリスト234において、「ユーザ」のカラムに格納されている、ゲームに参加した各ユーザを示す情報である。タグ情報734は、ユーザリスト234において、ゲームに参加した各ユーザを示す情報のそれぞれに対応付けられているタグを示す情報である。例えば、レコード画像732Aは、ユーザ名733Aとして、「AAAAA」を含む。このため、レコード画像732Aは、タグ情報734Aとして、ユーザリスト234において「AAAAA」に対応付けられている、『マガジン、10F、ボス、「マガジンのプレゼントによりボスに勝利」』を含む。アイコン735は、例えば、ユーザが事前に設定した画像である。
なお、プロセッサ40は、受信したユーザリストを配信端末400に記憶してもよい(図7のユーザリスト421)。ダウンロード画面721は、ユーザリスト421を表示部452に表示するためのUI画像(不図示)を含んでいてもよい。この例において、該UI画像がタップされた場合、プロセッサ40は、ユーザリスト234のダウンロードを行わず、ユーザリスト421を読み出し、該ユーザリスト421からユーザリスト画面を生成し、表示部452に表示させる。
ステップS64において、プロセッサ40は、操作受付部413として、ユーザリスト画面731に含まれるユーザの何れかを選択するための第2操作を受け付ける。第2操作は、一例として、ユーザリスト画面731におけるレコード画像732の何れかをタップする操作であってもよい。図18(B)の例では、プレイヤは、レコード画像732Aへのタップ操作を入力している。すなわち、プレイヤは、動作指図データを配信するユーザとしてユーザ「AAAAA」を選択している。
レコード画像732に対するタップ操作を受け付けると、ステップS65において、プロセッサ40は、表示制御部412として、モーションリスト422を表示部452に表示させる。具体的には、プロセッサ40は、モーションリスト422に基づいて生成されたモーションリスト画面を、表示部452に表示させる。モーションリスト画面は、一例として、図19に示すモーションリスト画面741であってもよい。モーションリスト画面741は、モーションリスト422における各レコードに対応するレコード画像からなる。図19の例では、レコード画像として、レコード画像742A~742Cを記載しているが、レコード画像の数は3つに限定されない。図19の例において、モーションリスト422におけるレコードの数が4より多い場合、プレイヤは、例えば画面をスクロールする操作(例えば、ドラッグ操作やフリック操作)をタッチスクリーン45に入力することにより、他のレコード画像を表示部452に表示させることができる。
一例として、レコード画像742A~742Cは、それぞれ、モーション名743A~743C、モーション画像744A~744C、および、UI画像745A~745Cを含む。以降、レコード画像742A~742C、モーション名743A~743C、モーション画像744A~744C、および、UI画像745A~745Cについて、区別する必要が無い場合、それぞれ、「レコード画像7432」、「モーション名743」、「モーション画像744」、「UI画像745」と記載する。
モーション名743は、モーションリスト422に格納されているモーションを識別する情報である。モーション画像744は、モーションリスト422において、各モーション名に対応付けられているモーションデータから生成される画像である。プロセッサ40は、一例として、各モーションデータにおける最初の姿勢をとるアバターオブジェクト610の画像を、モーション画像744とてレコード画像742に含める。モーション画像744は、プレイヤによる所定の操作(例えば、モーション画像744に対するタップ操作)を受け付けるUI画像であってもよい。プロセッサ40は、該所定の操作を受け付けた場合、モーションデータに基づいてアバターオブジェクト610が動作するモーション動画を再生してもよい。プロセッサ40は、モーション動画が終了すると、自動的にモーションリスト画面741を再表示してもよい。
なお、レコード画像742は、モーション画像744に代えて、例えば、「モーション再生」とのテキストを含むUI画像を含んでもよい。
ステップS66において、プロセッサ40は、操作受付部413として、モーションを選択する第3操作を受け付ける。第3操作は、一例として、UI画像745へのタップ操作であってもよい。つまり、UI画像745は、各レコード画像742に対応するモーションデータを選択する操作を受け付ける。第3操作を受け付けたことにより、プロセッサ40は、モーション特定部415として、プレイヤが選択したモーションデータを特定する。
ステップS67において、プロセッサ40は、表示制御部412および音声受付部414として、アバターオブジェクト610が、選択されたモーションデータに基づき動作するモーション動画を再生しながら、プレイヤの音声入力を受け付ける。
図20は、プレイヤ4による音声入力の一具体例を示す図である。図20に示すように、プレイヤ4は、モーション動画810Aを再生しながら、発話音声820Aを入力している。この発話音声820Aは、ユーザ名が「AAAAA」であるユーザ3(以下、ユーザ3A)宛の発話音声である。つまり、図20の例において、プレイヤ4は、ステップS64にて、ユーザ3A(第1ユーザ)を選択し、該ユーザ3A宛の動作指図データを作成している。なお、ユーザ3Aが使用するユーザ端末100は、ユーザ端末100Aであるとする。
発話音声820Aは、ユーザ3A宛の発話音声であるため、該ユーザ3Aがアバターオブジェクト610(換言すれば、プレイヤ4)に対して行った支援の内容に基づく発話音声となっている。具体的には、ユーザ3Aは、10Fというステージでのボス戦において、マガジンを投入し、その投入されたマガジンの銃弾でアバターオブジェクト610がボスに勝利している。このため、発話音声820Aは、「ボス戦でマガジンをプレゼントしてくれてありがとう!タイミングも完璧だったね!AAAAAさんのおかげでクリアできたよ!」という内容である。このように、発話音声は、ユーザ3がゲームにおいて行った支援の内容と、ユーザ3への感謝とを含むものであることが好ましい。
ある局面において、プレイヤ4は、音声入力を開始する前、すなわち、第3操作を配信端末400へ入力する前に、ユーザ3宛の発話内容を作成する。別の局面において、ユーザ3宛の発話内容は、プロセッサ40が自動生成してもよい。また、プロセッサ40は、第2操作によって選択されたユーザ3に対応付けられたタグを、モーション動画810Aに重畳して表示させてもよい。
プロセッサ40は、受け付けた音声を音声データに変換する。ステップS68において、プロセッサ40は、動作指図データ生成部416として、該音声データと、選択されたモーションのモーションデータとを含む動作指図データを生成する。
ステップS69において、プロセッサ40は、通信制御部411として、生成した動作指図データを選択されたユーザ3(図20の例ではユーザ3A)のユーザ端末100(第1コンピュータ)に配信する。図21は、配信端末400に表示される画面のさらなる別の具体例を示す図である。プロセッサ40は、ステップS68の実行後、表示制御部412として、配信画面を表示部452に表示させる。配信画面は、一例として、図21(A)に示す配信画面751であってもよい。配信画面751は、UI画像752、および、モーション画像753Aを含む。また、配信画面751は、図21(A)に示すように、動作指図データの配信先のユーザを示す情報を含むものであってもよい。
UI画像752は、動作指図データを選択されたユーザ3へ配信するための操作を受け付ける。該操作は、例えば、UI画像752へのタップ操作であってもよい。モーション画像753Aは、生成した動作指図データに基づく動画、すなわち、ユーザ3A用に生成した動作指図データに基づく動画を再生するための操作を受け付けるUI画像である。該操作は、例えば、モーション画像753Aへのタップ操作であってもよい。なお、生成した動画を再生するための操作を受け付けるUI画像は、モーション画像753Aに限定されない。例えば、「動画再生」とのテキストを含むUI画像であってもよい。プロセッサ40は、動画が終了すると、自動的に配信画面751を再表示してもよい。
配信画面751は、音声入力の受け付けに戻るための操作を受け付けるUI画像をさらに含むことが好ましい。該操作は、例えば、該UI画像へのタップ操作であってもよい。配信画面751が該UI画像を含むことにより、プレイヤ4は、例えば、発話する内容を間違えた場合など、音声入力に失敗した場合に、再度音声入力を行うことができる。なお、該UI画像は、モーションデータの選択に戻るための操作を受け付けるUI画像であってもよい。
UI画像752に対するタップ操作を受け付けると、プロセッサ40は、ユーザ3Aを示す情報とともに、動作指図データをサーバ200へ送信する。サーバ200は、ユーザ3Aを示す情報に基づいて、動作指図データの送信先のユーザ端末100を特定し、該動作指図データを特定したユーザ端末100(すなわち、ユーザ端末100A)へ送信する。
プロセッサ40は、動作指図データの送信が終了した場合、一例として、図21(B)に示す配信完了画面761を表示部452に表示させてもよい。配信完了画面761は、一例として、UI画像762および763を含む。また、配信完了画面761は、図21(B)に示すように、動作指図データの送信が完了したことを示すテキストを含むものであってもよい。
UI画像762は、別のユーザ3宛の動作指図データの作成を開始するための操作を受け付ける。該操作は、例えば、UI画像762をタップする操作であってもよい。プロセッサ40は、該タップ操作を受け付けると、ユーザリスト画面を、表示部452に再度表示させる。すなわち、該タップ操作を受け付けた場合、配信処理は、ステップS63に戻る。このとき、プロセッサ40は、配信端末400に記憶したユーザリスト421に基づいて、ユーザリスト画面を生成し、表示部452に表示させてもよい。UI画像763は、アプリケーションを終了するための操作を受け付ける。該操作は、例えば、UI画像763をタップする操作であってもよい。該操作を受け付けると、配信処理は終了する。
図20、図21を参照して説明した例では、図21(C)に示すように、配信端末400は、ユーザ3A(ユーザ名が「AAAAA」のユーザ3)宛の動画の動作指図データを、ユーザ端末100Aのみに送信する。
図22は、プレイヤ4による音声入力の他の具体例を示す図である。図22に示すように、プレイヤ4は、モーション動画810Bを再生しながら、発話音声820Bを入力している。この発話音声820Bは、ユーザ名が「BBBBB」であるユーザ3(以下、ユーザ3B)宛の発話音声である。つまり、図22の例において、プレイヤ4は、ステップS64にて、ユーザ3Bに対応するレコード画像732Bへのタップ操作を入力し、ユーザ3B宛の動作指図データを作成している。なお、ユーザ3Bが使用するユーザ端末100は、ユーザ端末100Bであるとする。
発話音声820Bは、ユーザ3B宛の発話音声であるため、該ユーザ3Bがアバターオブジェクト610(換言すれば、プレイヤ4)に対して行った支援の内容に基づく発話音声となっている。具体的には、ユーザ3Bは、3Fというステージのザコ敵との戦闘において、ユーザ「BBBBB」が救急箱を投入し、その結果、アバターオブジェクト610の体力が0になる(ゲームオーバーになる)寸前で体力が回復している。このため、発話音声820Bは、「BBBBBさんがプレゼントしてくれた救急箱のおかげで、3Fでゲームオーバーにならずにすんだよ。本当にありがとう!」という内容である。
図23は、配信端末400に表示される画面のさらなる別の具体例を示す図である。図23(A)に示す配信画面751は、UI画像752、および、モーション画像753Bを含む。モーション画像753Bは、タップ操作を受け付けると、ユーザ3B用に生成した動作指図データに基づく動画を再生する。
UI画像752に対するタップ操作を受け付けると、プロセッサ40は、ユーザ3Bを示す情報とともに、動作指図データをサーバ200へ送信する。サーバ200は、ユーザ3Bを示す情報に基づいて、動作指図データの送信先のユーザ端末100を特定し、該動作指図データを特定したユーザ端末100(すなわち、ユーザ端末100B)へ送信する。
図22、図23を参照して説明した例では、図23(C)に示すように、配信端末400は、ユーザ3B(ユーザ名が「BBBBB」のユーザ3)宛の動画の動作指図データを、ユーザ端末100Bのみに送信する。
以上のように、動作指図データに含まれる音声データに基づく音声の内容は、ユーザ3が直近のゲームへの参加において、プレイヤ4に対して行った支援の内容に基づくものとなる。該支援の内容はユーザ3ごとに異なるため、音声の内容は、ユーザ3ごとに異なる内容となる。つまり、ゲームの終了後、ゲームに参加したユーザ3の少なくとも一部のユーザ端末100には、それぞれ異なる内容の音声を含む動作指図データが送信される。
また、図22の例におけるアバターオブジェクト610のモーションは、図20の例におけるモーションと異なる。つまり、プレイヤ4は、ユーザ3B宛の動作指図データ生成において、ユーザ3A宛の動作指図データ生成時と異なるモーションデータを選択している。具体的には、プレイヤ4は、ステップS66において、レコード画像742Bに対応するモーションデータを選択する、UI画像745Bへのタップ操作を入力している。このように、プレイヤ4は、動作指図データに含まれるモーションデータを、ユーザ3毎に異ならせることができる。
そして、ユーザ3毎に異なる内容の音声データと、ユーザ3毎に選択されたモーションデータとを含む、ユーザ3毎の動作指図データは、各ユーザ3のユーザ端末100のみに送信される。換言すれば、ユーザ端末100毎にユニーク(一意)の動作指図データが、選択されたユーザ3のユーザ端末100の各々に送信される。
図24は、ゲームプレイ端末300からユーザ端末100へのゲーム進行情報の送信の概要を示す図である。ユーザ端末100における動画再生のための動作指図データが、ユーザ端末100毎にユニークである一方、図24に示すように、ゲーム実行中に、ゲームに参加している全てのユーザ3のユーザ端末100に送信されるゲーム進行情報は、各ユーザ端末100の間で共通である。すなわち、ゲーム進行情報に含まれる動作指図データもまた、各ユーザ端末100の間で共通である。このように、動画再生のための動作指図データと、ゲームを進行させるための動作指図データとは、ユーザ端末100間での同異、および、送信先といった観点で異なるデータであると言える。
(ユーザ端末100における動画再生処理)
図25は、ユーザ端末100で実行される動画再生処理の流れの一例を示すフローチャートである。
ステップS71において、プロセッサ10は、動画再生部117として、動作指図データを受信する。ステップS72において、プロセッサ10は、動画再生部117として、動作指図データの受信をユーザ3へ通知する。プロセッサ10は、一例として、通知画像の表示部152への表示、スピーカ(不図示)からの通知音声の再生、LED(light-emitting diode)などで構成される点灯部(不図示)の点灯または点滅の少なくともいずれかにより、動作指図データの受信をユーザ3へ通知する。
ステップS73において、プロセッサ10は、操作受付部111として、動画を再生するための第1再生操作を受け付ける。第1再生操作は、一例として、通知画像をタップする操作であってもよい。ステップS74において、プロセッサ10は、動画再生部117として、動作指図データをレンダリングし、動画を再生する。プロセッサ10は、一例として、本ゲームをプレイするためのアプリケーションを起動し、動画を再生してもよいし、該アプリケーションとは別の、動画再生用のアプリケーションを起動し、動画を再生してもよい。以降、該動画を、「ありがとう動画」と記載する。
図26は、ありがとう動画の再生の一具体例を示す図である。具体的には、ユーザ3Aのユーザ端末100における、ありがとう動画の再生の一例を示す図である。該ユーザ端末100において再生されたありがとう動画910Aにおいて、アバターオブジェクト610は、或るモーションを実行しながら、音声920Aを発話している。換言すれば、プロセッサ10は、或るモーションを実行するアバターオブジェクト610を含むありがとう動画910Aを再生しながら、音声920Aをスピーカ(不図示)から出力させている。
ありがとう動画910Aにおけるモーションは、ユーザ3A宛の動作指図データの生成において、プレイヤ4が選択したモーションデータに基づくものであり、音声920Aは、該動作指図データの生成において、プレイヤ4が入力した発話音声820Aから生成された音声データに基づくものである。つまり、音声920Aは、ユーザ3Aがゲームにおいて行った支援の内容と、該支援に対する感謝とを含む音声である。このように、ユーザ3Aは、第1再生操作の入力により、自身がゲームにおいて行った支援の内容と、該支援に対する感謝とを、アバターオブジェクト610が発話するありがとう動画を視聴することができる。
ユーザ端末100は、一例として、ありがとう動画910Aの再生が終了した後、少なくとも1つのUI画像をタッチスクリーン15に表示させてもよい。該UI画像は、例えば、ありがとう動画910Aをもう一度再生するための操作を受け付けるUI画像であってもよいし、別の画面に遷移するための操作を受け付けるUI画像であってもよいし、アプリケーションを終了するための操作を受け付けるUI画像であってもよい。
また、ユーザ端末100は、一例として、ありがとう動画910Aの再生中に、少なくとも1つのUI画像をタッチスクリーン15に表示させてもよい。該UI画像は、例えば、再生中のありがとう動画910Aを一時的に停止させたり、終了させたり、再生する場面を変更させたりする操作をそれぞれ受け付ける、複数のUI画像であってもよい。
なお、ありがとう動画910Aの再生中、および、ありがとう動画910Aの再生が狩猟した後に表示されるこれらのUI画像には、アバターオブジェクト610に対する返答を行うためのUI画像は含まれない。すなわち、本実施形態に係るありがとう動画910Aにおいては、アバターオブジェクト610に対する返答を行うための手段が備えられていない。
図27は、ありがとう動画の再生の他の具体例を示す図である。具体的には、ユーザ3Bのユーザ端末100における、ありがとう動画の再生の例を示す図である。該ユーザ端末100において再生されたありがとう動画910Bにおいて、アバターオブジェクト610は、或るモーションを実行しながら、音声920Bを発話している。換言すれば、プロセッサ10は、或るモーションを実行するアバターオブジェクト610を含むありがとう動画910Bを再生しながら、音声920Bをスピーカ(不図示)から出力させている。
ありがとう動画910Bにおけるモーションは、ユーザ3B宛の動作指図データの生成において、プレイヤ4が選択したモーションデータに基づくものであり、音声920Bは、該動作指図データの生成において、プレイヤ4が入力した発話音声820Bから生成された音声データに基づくものである。このため、図27の例において、アバターオブジェクト610が行っているモーションは、図26の例のモーションとは異なる。また、音声920Bは、ユーザ3Bがゲームにおいて行った支援の内容と、該支援に対する感謝とを含む音声である。このため、図27の例において、音声920Bの内容は、図26の例における音声920Aの内容とは異なる。
このように、ゲームの終了後に、ゲームに参加したユーザ3の少なくとも一部のユーザ端末100が受信するありがとう動画は、ユーザ3毎にアバターオブジェクト610の発話内容が異なる動画である。
なお、プロセッサ10は、次回のゲームへの参加を促す内容を含むUI画像930を、動画910に重畳させて表示させてもよい。UI画像930は、動作指図データとともに配信されてもよいし、ゲーム情報132として、ユーザ端末100が記憶していてもよい。
(本ゲームの概要の補足)
図11に示す本ゲームは、サーバ200を介してライブ配信されるゲーム進行情報に基づいて、視聴コンテンツであるゲーム画面をタッチスクリーン15に表示するライブ配信ゲームである。ユーザ端末100のメモリ11には、標準の衣装(例えば、セーターとショートパンツ)を身に着けたアバターオブジェクト610を含むオブジェクトを表示するための複数種類のオブジェクトデータが予め記憶されている。ユーザ端末800は、ゲームプレイ端末300からゲーム進行情報を受信したとき、当該ゲーム進行情報から動作指図データ(モーションデータ及び音声データを含むデータ)を特定し、当該動作指図データを解析(レンダリング)することにより、オブジェクトの位置・姿勢等を特定する。また、ユーザ端末100は、当該解析結果に基づき、メモリ11に記憶されているオブジェクトデータを用いて、衣装を身に着けたアバターオブジェクト610を含むオブジェクトを仮想空間600Bに配置する。タッチスクリーン15には、現在の仮想カメラ620Bの位置および向きに応じた視界領域640Bの視界画像660が表示される。なお、アバターオブジェクト610を含むオブジェクトは、ゲームプレイ端末300により規定された仮想空間600Aにも配置され、当該オブジェクトの位置・姿勢等は、仮想空間600Aおよび600Bの間で一致する。
当該ライブ配信ゲームにおいてユーザがアイテム投入操作を行うと、アイテム投入情報がゲームプレイ端末300に送信される。当該アイテム投入情報は、投げ銭アイテム(特典)の種別と、当該投げ銭アイテムに関連付けられているポイント量と、当該アイテム投入操作を行ったユーザのユーザIDとを特定可能な情報である。なお、当該ポイント量は、当該アイテム投入情報に含めてもよく、ゲームプレイ端末300において投げ銭アイテムに関連付けて管理するようにしてもよい。
ゲームプレイ端末300は、当該アイテム投入情報に基づいてポイント量を特定し、当該ポイント量をアバターオブジェクト610に付与する。また、ゲームプレイ端末300は、当該投げ銭アイテムのオブジェクトを仮想空間600Aに投入するとともに、当該オブジェクトに対応する動作指図データをゲーム進行情報に含めてユーザ端末100に配信する。この結果、当該投げ銭アイテムのオブジェクトが仮想空間600Bに投入される。
当該ライブ配信ゲームを視聴可能なユーザのユーザIDと、当該ユーザが当該ライブ配信ゲームにおいてアバターオブジェクト610に付与したポイント量とは、メモリ31に記憶されているポイント管理テーブルTBL1(図28(A)参照)により管理される。ゲームプレイ端末300は、アイテム投入情報を受信したとき、ポイント管理テーブルTBL1に登録されている複数のユーザIDのうちから当該アイテム投入情報に基づいて特定されるユーザIDと同じユーザIDを特定し、当該アイテム投入情報に基づいて特定されるポイント量を当該ユーザIDに関連付けられているポイント量に加算する。
図28(A)によれば、ユーザAには7120ポイントが関連付けられ、ユーザBには5903ポイントが関連付けられ、ユーザCには6469ポイントが関連付けられている。また、ユーザDには8905ポイントが関連付けられ、ユーザEには3556ポイントが関連付けられている。このため、例えば、ユーザAのユーザ端末100から送信されたアイテム投入情報から100ポイントが特定された場合には、ユーザAのポイント量が7220ポイントに更新される。なお、図28(A)では、ライブ配信ゲームを視聴可能なユーザの一部を示している。
当該ライブ配信ゲームを視聴可能なユーザには、当該ポイントが多い方から順にランキングが付与される。当該ランキングは、メモリ31に記憶されているランキング管理テーブルTBL2(図28(B)参照)により管理される。これにより、複数のユーザ間における各ユーザのランク(階級)が特定される。図28(B)によれば、ランキングは、ユーザD→ユーザA→ユーザC→ユーザB→ユーザE→…の順で低下する。なお、図28(B)においても、ライブ配信ゲームを視聴可能なユーザの一部を示している。
<ライブ対戦ゲームの概要>
図29を参照して、ライブ対戦ゲーム(仮想空間内でのイベント)では、アバターオブジェクト610は、ゲームプレイ端末300により規定された仮想空間600Aと、ユーザ端末100により規定された仮想空間600Bとの各々に配置される。仮想空間600Aおよび600Bの各々は、例えば屋内のリビングルーム(以下、単に「ルーム」という)であり、当該ルームには、アバターオブジェクト610の他に、ソファを模したオブジェクト(以下、単に「ソファ」という)681、テーブルを模したオブジェクト(以下、単に「テーブル」という)682、絵画を模したオブジェクト(以下、単に「絵画」という)683等が配置される。当該ルームにおいて、アバターオブジェクト610は、ビンゴゲームやクイズゲーム等によりユーザと対戦する。
ゲームプレイ端末300は、ユーザ端末100により規定されたルーム内にアバターオブジェクト610等のオブジェクトを配置するために、これらのオブジェクトの位置・姿勢等を特定可能にするための動作指図データ(モーションデータ及び音声データを含むデータ)を含むゲーム進行情報を生成し、当該ゲーム進行情報をユーザ端末100に配信する。
ユーザが当該ライブ対戦ゲームの視聴を開始する操作を行うと、当該ユーザのユーザ端末100は、ユーザIDを含む視聴開始情報をゲームプレイ端末300に送信する。ゲームプレイ端末300は、当該視聴開始情報に含まれるユーザIDに基づいて当該ユーザのランキングをランキング管理テーブルTBL2から特定し、当該ユーザIDと当該ランキングとを含むランキング情報をユーザ端末100に返送する。
当該ユーザIDのユーザが操作するユーザ端末100は、受信したランキング情報に基づいて当該ユーザのランキングを取得し、当該ランキングに関連付けられているアバターオブジェクト610をユーザ端末100のメモリ11に記憶されているアバターオブジェクト管理テーブルTBL3(図30参照)から特定する。
図30によれば、表示態様が異なる複数種類のアバターオブジェクト610が、複数のランキング帯に区分されている。具体的には、1位から50位までのランキング帯には、人物モデルAを模したキャラクタにドレスを着せた態様のアバターオブジェクト610が関連付けられており、51位から100位までのランキング帯には、人物モデルAを模したキャラクタに制服を着せた態様のアバターオブジェクト610が関連付けられている。また、101位から150位までのランキング帯には、人物モデルAを模したキャラクタにTシャツとジーンズとを着せた態様のアバターオブジェクト610が関連付けられており、151位よりも下位のランキング帯には、人物モデルAを模したキャラクタにセーターとショートパンツとを着せた態様のアバターオブジェクト610が関連付けられている。即ち、キャラクタ自体は、人物モデルAという共通のキャラクタであり、当該キャラクタが着用している衣装がランキング帯に応じて異なる。これにより、アバターオブジェクト610の表示態様がランキング帯に応じて異なることとなる。なお、アバターオブジェクト管理テーブルTBL3は、ゲームプログラムをダウンロードする際に取得され、当該ゲームプログラムをアップデートする際に更新される。
一方、ゲームプレイ端末300により規定された仮想空間600A内のアバターオブジェクト610については、人物モデルAを模したキャラクタに所定の衣装が着せられる。また、当該仮想空間600A内のアバターオブジェクト610の衣装は、ライブ対戦ゲームの進行にかかわらず共通である。当該所定の衣装は、例えば、151位よりも下位のランキングに関連付けられているアバターオブジェクト610の衣装と同じ衣装に設定される。ただし、ユーザ端末100側で着用可能となる衣装と全く異なる衣装であってもよい。
ユーザ端末100は、当該ルームを仮想空間600Bとして規定するとともに、ゲームプレイ端末300から配信されたゲーム進行情報に基づいて、アバターオブジェクト610を含むオブジェクトを配置し、または既に配置されているオブジェクトを動作させる。即ち、ユーザ端末100は、ゲームプレイ端末300からゲーム進行情報を受信したとき、当該ゲーム進行情報から動作指図データを特定し、当該動作指図データを解析することにより、オブジェクトの位置・姿勢等を特定する。
また、ユーザ端末100は、当該解析結果に基づき、メモリ11に記憶されているオブジェクトデータを用いて、アバターオブジェクト610、ソファ681、テーブル682、絵画683等のオブジェクトを仮想空間600Bに配置・動作等させる。このとき、アバターオブジェクト610については、ランキングに基づいてアバターオブジェクト管理テーブルTBL3から特定した表示態様となるアバターオブジェクト610に対応するオブジェクトデータを用いる。即ち、メモリ11には、同じ人物モデルを模したキャラクタについて、互いに異なる衣装を身に着けた複数人のアバターオブジェクト610のオブジェクトデータが記憶されており、ランキングに応じた衣装を身に着けたアバターオブジェクト610に対応するオブジェクトデータを用いる。タッチスクリーン15には、現在の仮想カメラ620Bの位置および向きに応じた視界領域640Bの視界画像660が表示される。なお、当該複数人のアバターオブジェクト610のオブジェクトデータは、ゲームプログラムをダウンロードまたはアップデートする際に、ゲームプレイ端末300から取得され、メモリ11に記憶される。
この結果、ゲームプレイ端末300側におけるアバターオブジェクト610の表示態様、およびゲーム進行情報に含まれる動作指図データは共通であるにもかかわらず、ユーザ端末100側におけるアバターオブジェクト610の表示態様は、ユーザのランキング(即ち、ライブ配信ゲームにおいてユーザがアイテム投入操作によってアバターオブジェクト610に付与したポイント量)に応じて異なり得る。即ち、アバターオブジェクト610は、衣装の部位についてはユーザ端末100に応じて異なり、人物モデルAというキャラクタの部位についてはユーザ端末100間で共通となる表示態様で動作する。
例えば、ランキングが151位以下のユーザのユーザ端末100には、図29(A)に示す視界画像660が表示され、ランキングが101位から150位までのユーザのユーザ端末100には、図29(B)に示す視界画像660が表示される。いずれの視界画像660においても、ソファ681、テーブル682、絵画683などのオブジェクトであって、同じデザインのオブジェクトが、ルーム内の同じ位置に同じ姿勢で配置される。アバターオブジェクト610についても、当該ルーム内の同じ位置に同じ姿勢で配置される。ただし、アバターオブジェクト610の衣装は、図29(A)に示す視界画像660と図29(B)に示す視界画像660とで異なる。
ゲームプレイ端末300においては、視聴者情報がリアルタイムで更新される。当該視聴者情報は、視聴中のユーザのランキングがどのように分布しているかを特定可能にするための情報である。プレイヤは、アバターオブジェクト610がどのような態様でユーザ端末100に表示されているかを、当該視聴者情報に基づいて把握することが可能となる。例えば、視聴中のユーザのランキングが1位~50位に集中している場合、プレイヤは、ドレスを着用したアバターオブジェクト610が多くのユーザ端末100に表示されていることを把握することができる。この結果、当該表示態様に相応しい振る舞いをプレイヤに促すことができる。
なお、ゲームプレイ端末300側の仮想空間600Aに配置されるアバターオブジェクト610の衣装は、上記した所定の衣装とすることに替えて、視聴中のユーザが集中しているランキング帯の衣装とするようにしてもよい。
当該ライブ対戦ゲームを視聴中のユーザがコメントを入力すると、ユーザ端末100は、当該コメントをゲームプレイ端末300に送信する。当該コメントは、ゲームプレイ端末300により複数のユーザ端末100に配信され、各ユーザ端末100においては、当該コメントが視界画像660に重畳して表示される。
また、当該ライブ対戦ゲームを視聴中のユーザがアイテム投入操作を行うと、ユーザ端末100は、上記のアイテム投入情報がゲームプレイ端末300に送信される。ゲームプレイ端末300は、当該アイテム投入情報に基づいて特定されるポイント量をアバターオブジェクト610に付与するとともに、当該投げ銭アイテムのオブジェクトを仮想空間600Aに投入し、当該オブジェクトに対応する動作指図データをゲーム進行情報に含めてユーザ端末100に配信する。
ユーザは、当該アバターオブジェクト610との対話を利用した様々なゲーム(例えば、ビンゴゲーム、クイズゲーム等)を楽しむことが可能となる。当該ゲームについて特定条件(例えば、ビンゴゲームにおいてユーザがビンゴとなる、クイズゲームにおいて当該ユーザが正解することにより成立する条件)が成立すると、当該特定条件に応じた特典がユーザに付与される。
特典は、アバターオブジェクト610が登場するゲームで使用可能なコインや投げ銭アイテムを含んでもよい。また、特典は、当該ライブ対戦ゲーム特有の特典を含んでもよい。具体的には、ライブ配信ゲーム等で投入可能な投げ銭アイテムであって、当該ライブ対戦ゲームでしか入手できない投げ銭アイテムであってもよい。また、特典は、アバターオブジェクト610が登場するゲームのうちの特定のゲームでのみ有効な特典を含んでもよい。具体的には、当該特定のゲームでのみ投入可能な専用投げ銭アイテムであってもよい。この場合、当該専用投げ銭アイテムをユーザに付与する割合は、他の投げ銭アイテムを付与する割合よりも低くするようにしてもよい。さらに、コインは、課金処理によってユーザに付与するようにしてもよい。
このように、アバターオブジェクト610の位置・姿勢等は、ゲーム進行情報に含まれている動作指図データを解析(レンダリング)することにより特定され、当該アバターオブジェクト610は、当該解析結果とメモリ11に記憶されているオブジェクトデータとに基づいてルーム内に配置される。このため、アバターオブジェクト610の表示態様についてはユーザ毎に異ならせることが可能となり、アバターオブジェクト610が登場するゲームの楽しみ方を多様化することができる。
(動作について)
図31は、ユーザ端末100およびゲームプレイ端末300により所定時間(例えば1/60秒)毎に実行されるライブ配信ゲームの基本的なゲーム進行についてその一例を示すフローチャートである。なお、ゲームプレイ端末300およびユーザ端末100はそれぞれ、当該フローチャートとは別のフローチャート(図示せず)において、仮想空間600Aおよび600Bを規定する。また、図31に示すフローチャートの一部の処理はサーバ200において実行し、処理結果をユーザ端末100に送信するようにしてもよい。また、ユーザ端末100とゲームプレイ端末300との間での情報の送受信は、サーバ200を介して実行されるものであるが、これに限らず、サーバ200を介することなく実行されるものであってもよい。
ゲームプレイ端末300は、ステップS101において、アバターオブジェクト610その他のオブジェクトの位置・姿勢等を特定可能にするための動作指図データを含むゲーム進行情報を生成し、当該ゲーム進行情報をユーザ端末100に配信する。
ユーザ端末100は、ステップS81において、現在のパートは「視聴前パート」であるか否かをメモリ11に記憶されているパート設定情報に基づいて判定する。「視聴前パート」であると判定されると、ステップS82に進む。ステップS82では、ユーザにより視聴開始操作が行われたか否かをタッチスクリーン15に対する入力操作に基づいて判定する。当該視聴開始操作が行われたと判定されなかったときはリターンし、当該視聴開始操作が行われたと判定されたときはステップS83に進む。ステップS83では、ユーザIDを含む視聴開始情報をゲームプレイ端末300に対して送信する。
ゲームプレイ端末300は、ステップS102において、当該視聴開始情報を受信したか否かを通信IF33からの出力に基づいて判定する。当該視聴開始情報を受信したと判定されたときは、ステップS103に進む。ステップS103では、当該視聴開始情報に含まれるユーザIDを特定し、当該ユーザIDに関連付けられているランキングをランキング管理テーブルTBL2から特定する。ステップS104では、当該ランキングと当該ユーザIDとを含むランキング情報を生成し、当該視聴開始情報を送信したユーザのユーザ端末100に対して当該ランキング情報を返送する。返送が完了すると、ステップS106で視聴者情報を更新する。具体的には、視聴を開始したユーザのランキングを当該視聴者情報に追加する。これにより、視聴中のユーザのランキングがどのように分布しているかが特定可能となり、ひいてはアバターオブジェクト610がどのような態様でユーザ端末100に表示されているかをゲームプレイ端末300側で把握することが可能となる。ステップS106の処理が完了すると、リターンする。
ユーザ端末100は、ステップS84において、当該ユーザ端末100を操作するユーザのユーザIDを含むランキング情報を受信する。ステップS85では、メモリ11に記憶されているパート設定情報を「視聴中パート」に更新する。更新が完了すると、リターンする。
ステップS81において、現在のパートは「視聴前パート」であると判定されなかったときは、ステップS86に進む。ステップS86では、現在のパートは「視聴中パート」であるか否かをメモリ11に記憶されているパート設定情報に基づいて判定する。「視聴中パート」であると判定されなかったときはステップS91でその他の処理を実行し、その後にリターンする。一方、「視聴中パート」であると判定されたときは、ステップS87に進む。
ステップS87では、ゲームプレイ端末300から配信されたゲーム進行情報を受信し、当該ゲーム進行情報に含まれる動作指図データを解析(レンダリング)することにより、アバターオブジェクト610等の仮想オブジェクトをどの位置にどのような姿勢で配置するかを特定する。ステップS87では、ステップS84で受信したランキング情報に含まれるランキングを特定し、当該ランキングに関連付けられている表示態様のアバターオブジェクト610をアバターオブジェクト管理テーブルTBL3から特定する。
ステップS87では、動作指図データの解析結果と、メモリ11に記憶されているオブジェクトデータのうちアバターオブジェクト管理テーブルTBL3(図30参照)から特定したアバターオブジェクト610のオブジェクトデータとに基づいて、当該ユーザのランキングに応じた衣服を着用したアバターオブジェクト610を仮想空間600Bに配置・動作等させる。ステップS87では、現在の仮想カメラ620Bの位置および向きに応じた視界領域640Bを特定し、当該視界領域640Bに対応する視界画像660をタッチスクリーン15に表示する。
ユーザは、当該アバターオブジェクト610との対話を利用した様々なゲーム(例えば、ビンゴゲーム、クイズゲーム等)を楽しむ。ステップS87では、当該ゲームについて特定条件(例えば、ビンゴゲームにおいてユーザがビンゴとなる、クイズゲームにおいて当該ユーザが正解することにより成立する条件)が成立したか否かを、ゲームの進行状況を特定可能なゲームパラメータ値に基づいて判定する。当該特定条件が成立したと判定されたときは、ステップS87において、当該特定条件に応じた特典をユーザに付与する。
ステップS88では、ユーザにより視聴終了操作が行われたか否かをタッチスクリーン15に対する入力操作に基づいて判定する。当該視聴終了操作が行われたと判定されなかったときはリターンし、当該視聴終了操作が行われたと判定されたときはステップS89に進む。ステップS89では、ユーザIDを含む視聴終了情報をゲームプレイ端末300に対して送信する。ステップS90では、メモリ11に記憶されているパート設定情報を「視聴前パート」に更新し、その後にリターンする。
ゲームプレイ端末300は、ステップS102において視聴開始情報を受信したと判定されなかったとき、ステップS105に進む。ステップS105では、ユーザ端末100から視聴終了情報を受信したか否かを、通信IF33からの出力に基づいて判定する。当該視聴終了情報を受信したと判定されたときは、ステップS106で視聴者情報を更新する。具体的には、視聴を終了したユーザのランキングを当該視聴者情報から削除する。ステップS106の処理が完了すると、リターンする。一方、当該視聴終了情報を受信したと判定されなかったときは、ステップS106の処理を実行することなく、リターンする。
<本実施形態の効果>
本実施形態によれば、ライブ対戦ゲームには、第1ユーザを含む複数のユーザが参加する。また、当該ライブ対戦ゲームは、当該複数のユーザが使用する複数のユーザ端末100において実行される。当該ライブ対戦ゲームに登場するアバターオブジェクト610は、ゲームプレイ端末300から受信したゲーム進行情報に基づいて、当該複数のユーザ端末100の各々において規定された仮想空間600Bに配置され、動作等を行う。ここで、ゲーム進行情報は、アバターオブジェクト610を操作するプレイヤの入力したモーションデータ及び音声データを含むデータであって、複数のユーザが使用する複数のユーザ端末100に共通に送信される。
第1ユーザのユーザ端末100は、当該ユーザ端末100において規定された仮想空間600Bに登場するアバターオブジェクト610を、当該ユーザ端末100以外の複数のユーザ端末100の少なくともいずれかにおいて規定された仮想空間600Bに登場するアバターオブジェクト610と異なる表示態様で表示可能である。この結果、アバターオブジェクト610が登場するゲームの楽しみ方を多様化することができる。
また、本実施形態によれば、ユーザ端末100のメモリ11には、アバターオブジェクト610を複数種類の表示態様のうちのいずれかの表示態様で表示するためのオブジェクトデータが記憶されている。アバターオブジェクト610は、ゲーム進行情報に含まれる動作指図データの解析結果(レンダリング結果)と、メモリ11に記憶されているオブジェクトデータのうち第1ユーザに応じた表示態様で表示するためのオブジェクトデータとに基づいて、アバターオブジェクト610を動作させる。これによって、共通のゲーム進行情報を配信しても、アバターオブジェクト610の表示態様をユーザ毎に異ならせることが可能となる。
さらに、本実施形態によれば、第1ユーザによるアイテム投入操作に基づいて特定される当該第1ユーザのランキングは、当該第1ユーザによるライブ配信ゲームの進行に応じて更新される。また、アバターオブジェクト610は、当該ランキングに応じた表示態様で動作する。これにより、ライブ配信ゲームとライブ対戦ゲームとを連携させることが可能となり、ゲームの楽しみ方の多様化が図られる。
また、本実施形態によれば、アイテム投入情報は、複数のユーザ間における第1ユーザのランクを特定するための情報である。これにより、複数のユーザ間の競争が促され、コインの消費を促すことができる(その結果、ゲームの配信者には事業収益がもたらされる)。
さらに、本実施形態によれば、アバターオブジェクト610が登場するライブ配信ゲームの進行に応じてランキングが更新される。これによって、ライブ配信ゲームとライブ対戦ゲームとをより強く連携させることが可能となる。
また、本実施形態によれば、第1ユーザからプレイヤに対して投げ銭アイテムが付与されることにより、ランキングが更新される。これにより、ライブ配信ゲームの好趣を向上させることができる。
さらに、本実施形態によれば、投げ銭アイテムには、当該投げ銭アイテムの価値に応じて異なるポイント量が関連付けられており、ランキングは当該ポイント量に応じて更新される。これによって、より価値の高い投げ銭アイテムを投入しようという動機付けをユーザに働かせることができる。
また、本実施形態によれば、アバターオブジェクト610は、衣装の部位についてはユーザ端末100に応じて異なり、人物モデルAというキャラクタの部位についてはユーザ端末100間で共通となる表示態様で動作する。これにより、視聴中のユーザ間でアバターオブジェクト610の衣装を多様化できる。
<変形例>
以上説明した実施形態の変形例などを以下に列挙する。
(1)上記実施形態においては、アバターオブジェクト610の衣装は、ユーザのランキングが高いほどユーザにとって豪華な衣装になる。しかし、着せ替え可能な衣装の数(即ち、カスタマイズの自由度)をユーザのランキングに応じて異ならせるようにしてもよい。即ち、アバターオブジェクト610を動作させるときの表示態様数を当該ランキングに応じて異ならせ、当該ランキングが高くなるほど設定可能な表示態様数を多くするようにしてもよい。また、当該設定可能な表示態様のうちのいずれかの表示態様をユーザが選択できるようにしてもよい。さらに、ユーザが入手したアイテムを使ってアバターオブジェクト610の表示態様を変更できるようにしてもよい。例えば、ランキングが中位であれば、ユーザが入手した髪飾りアイテムを使ってアバターオブジェクト610の頭に髪飾りを取付け可能としたり、ランキングが上位であれば、ユーザが入手した水着アイテムを使ってアバターオブジェクト610に水着を着用させるようにしてもよい。
(2)上記実施形態においては、ユーザ端末100側の仮想空間600Bに配置される人物モデルAのキャラクタは、ランキング帯にかかわらず共通としている。しかし、当該キャラクタが身に着ける衣装の一部(例えば、靴、アクセサリー、帽子等)についても、ランキング帯にかかわらず共通とするようにしてもよい。即ち、アバターオブジェクト610を動作させるときの表示態様のうち予め定められた一部の表示態様は、複数のユーザ端末100間で共通させるようにしてもよい。また、人物モデルのキャラクタ自体をランキング帯に応じて異ならせ、当該キャラクタの衣装の一部をランキング帯にかかわらず共通とするようにしてもよい。
(3)上記実施形態においては、ライブ配信ゲームの視聴が活発になると、期間の経過とともにポイント量のばらつきが大きくなる。例えば、今日のポイント量のばらつきは、3ヶ月前よりも大きくなる。そこで、1位のポイント量が所定値に達する毎に、衣装の種類を増やすようにしてもよい。
(4)上記実施形態においては、ユーザのランキングを特定するゲームとしてライブ配信ゲームを想定し、アバターオブジェクト610の表示態様を異ならせるゲームとしてライブ対戦ゲームを想定している。しかし、アバターオブジェクト610が登場するゲームであれば、ゲームの種類は問わず、例えば、ライブ対戦ゲームにおいてユーザのランキングを特定したり、ライブ配信ゲームにおいてアバターオブジェクト610の表示態様を異ならせるようにしてもよい。さらには、視聴者により操作されるオブジェクトを仮想空間に配置する等してゲームを進める視聴者参加型のゲームにおいて、ランキングを特定したり、アバターオブジェクト610の表示態様を異ならせるようにしてもよい。
(5)上記実施形態においては、ユーザのランキングを特定するゲームの種類と、アバターオブジェクト610の表示態様を異ならせるゲームの種類とは、互いに異なっている。しかし、同じ種類のゲームまたは同じゲームにおいて、当該ランキングを特定するとともに、アバターオブジェクト610の表示態様を異ならせるようにしてもよい。
(6)上記実施形態においては、視聴者情報がユーザ端末100に配信されることはない。しかし、当該視聴者情報もユーザ端末100に配信し、視聴中のユーザのランキングがどのように分布しているかをタッチスクリーン15上で報知するようにしてもよい。これにより、アイテム投入操作を下位のユーザに対して促すことができる。
(7)上記実施形態においては、ライブ配信ゲームにおいてユーザが投入した投げ銭アイテムに関連付けられているポイント量に基づいて、当該ユーザのランキングが特定される。しかし、当該ランキングは、当該アバターオブジェクト610が登場するゲーム、即ちライブ配信ゲームおよびライブ対戦ゲームのいずれか一方または両方のゲーム結果(例えば、得点)と当該ポイント量とに基づいて、当該ランキングを特定するようにしてもよい。また、ポイント量以外のパラメータ(例えば当該ゲーム結果)に基づいて、当該ランキングを特定するようにしてもよい。
(8)上記実施形態においては、ユーザのランキングが上がるほど、人物モデルAが身に着ける衣装が豪華になる。しかし、当該ランキングが上がるほど人物モデルAの露出度を高くするようにしてもよい。
(9)上記実施形態においては、ユーザのランキングに応じてアバターオブジェクト610の表示態様を異ならせるようにしている。しかし、当該ランキングに応じて他のオブジェクト(例えば、ルームに配置されているソファ、テーブルのデザイン、壁の装飾等)を異ならせるようにしてもよい。このとき、アバターオブジェクト610の表示態様は異ならせず、他のオブジェクトの表示態様を異ならせるようにしたり、アバターオブジェクト610および他のオブジェクトの両方の表示態様を異ならせるようにしてもよい。
(10)上記実施形態においては、ユーザのランキングにかかわらずアバターオブジェクト610の髪型、肌の色、化粧の程度等は共通している。しかし、当該ランキングに応じて当該アバターオブジェクト610の髪型、肌の色、化粧の程度等を異ならせるようにしてもよい。
(11)上記実施形態においては、互いに異なる衣装を身に着けた複数人のアバターオブジェクト610のオブジェクトデータをメモリ11に記憶し、ランキングに応じた衣装を身に着けたアバターオブジェクト610に対応するオブジェクトデータを用いて当該アバターオブジェクト610を仮想空間600Bに配置するようにしている。しかし、メモリ11には、複数種類の衣装の各々のオブジェクトデータと、人物モデルAのオブジェクトデータとを区別して記憶しておき、表示の際に、ランキングに応じた衣装を人物モデルAに着せるようにしてもよい。また、メモリ11に記憶するオブジェクトデータについては、アバターオブジェクト管理テーブルTBL3において別の表示態様のアバターオブジェクト610が関連付けられているランキングまでユーザのランキングがアップしたときに、当該ランキングに対応するオブジェクトデータをゲームプレイ端末300から取得するようにしてもよい。
(12)上記実施形態においては、様々な衣装を身に着けた複数人のアバターオブジェクト610のオブジェクトデータは、ゲームプログラムをダウンロードまたはアップデートする際に、ゲームプレイ端末300から取得され、メモリ11に記憶される。しかし、様々な衣装を身に着けたアバターオブジェクト610のオブジェクトデータは、課金処理やゲームクリア等によっても獲得可能とするようにしてもよい。
(13)上記実施形態においては、ユーザ端末100におけるアバターオブジェクト610の表示態様を、当該ユーザ端末100のユーザのランキング(ゲーム履歴)に応じて異ならせるようにしている。しかし、当該ランキングに限らず、ユーザの設定や、ユーザ端末100の場所等に応じて、アバターオブジェクト610の表示態様を異ならせるようにしてもよい。例えば、ユーザの操作により水着が設定された場合は、水着を身に着けたアバターオブジェクト610を表示させたり、ユーザ端末100の場所が雪山であれば、スキーウェアを身に着けたアバターオブジェクト610を表示させるようにしてもよい。
(14)上記実施形態においては、人物モデルAを模したキャラクタに衣装が着せられる。しかし、他の人物モデルを模したキャラクタもゲームに登場させるようにしてもよい。また、ランキングに応じて異なる衣装を着用するキャラクタは、複数の人物モデルを模したキャラクタのうちの特定のキャラクタに限定されるものであってもよい。
(15)上記実施形態においては、仮想空間内でのイベントとしてライブ対戦ゲーム等のゲームを想定しているが、当該イベントは、ゲーム以外のものでもよく、例えば、アバターオブジェクト610がステージ上で歌ったり、おしゃべりをするイベントであってもよい。
(16)上記実施形態では、図30等において示したように、ライブ配信等のイベントに登場するアバターオブジェクト610の表示態様を、投げ銭アイテムが投入されること等のゲーム進行により更新されるユーザのランキングに応じて、他のユーザのユーザ端末において表示される表示態様と異ならせることができる例について説明した。しかし、ライブ配信等のイベントに登場するアバターオブジェクト610の表示態様は、これに限らず、ゲーム中においてユーザによる課金に応じて、他のユーザのユーザ端末において表示される表示態様と異ならせることができるようにしてもよい。
(17)上記実施形態では、図18(B)において例示したユーザリスト画面731において、課金したユーザに対する「ありがとう動画」の送信をプレイヤに促す参考情報を表示するようにしてもよい。参考情報としては、課金したユーザに対応させて、「ありがとうメール確定!!」といった文字情報を表示するようにしてもよい。課金の有無については、例えばユーザリストに基づき課金により投入されたアイテムが含まれているか否かによりユーザに判定させるようにしてもよい。これにより、プレイヤは、課金したユーザへの「ありがとう動画」の送信を促進させることができる。また、参考情報を表示する際には、さらに、課金したユーザに対応させて課金の合計額を表示するようにしてもよい。課金の合計額については、ユーザリストにおいて管理し、課金に応じてユーザリストを更新するようにしてもよい。
(18)上記実施形態では、図19で示したようにプレイヤによって選択されたアバターオブジェクト610のモーションデータを含む動作指図データをユーザ3のユーザ端末100に配信することにより、当該ユーザ端末100において「ありがとう動画」を再生可能となる例について説明した。しかし、プレイヤは、アバターオブジェクト610のモーションデータに加えて、アバターオブジェクト610の衣装(表示態様)の種別を選択し、当該衣装の種別を識別するための識別データを含む動作指図データをユーザ3のユーザ端末100に配信することにより、当該ユーザ端末100において「ありがとう動画」を再生可能となるようにしてもよい。これにより、ユーザ端末100側における「ありがとう動画」では、モーションデータに従って、識別データに基づく衣装(表示態様)でアバターオブジェクト610を動作させるようにしてもよい。例えば、プレイヤにより選択可能となるアバターオブジェクト610のモーション数が3に定められ、衣装(表示態様)が8に定められている場合、ユーザ端末100のメモリ11には、「ありがとう動画」を再生するためのデータとして24種類(=3×8)記憶されており、ユーザ端末100は、受信した動作指図データに含まれるモーションデータおよび識別データに対応する「ありがとう動画」を再生する。
(19)配信端末400における配信処理の際に配信端末400の表示部452に表示される画面は、上記実施形態において図18~図23などに示した例に限定されない。ここでは、図32および図33を参照して、課金額に応じて順位付けしたランキング画面をリストとして配信端末400に表示する例について説明する。
プロセッサ40は、動作指図データの生成および配信を行うためのアプリケーションのアイコンに対する、ユーザの選択操作を受け付けると、ログイン画面(不図示)を表示部452に表示させる。該選択操作は、一例として上記アイコンに対するタップ操作であってもよい。プロセッサ40は、ログイン画面において、必要な情報の入力を受け付ける。該情報は、一例として、ユーザIDおよびパスワードであってもよい。プロセッサ40は、該情報をサーバ200へ送信し、サーバ200に認証処理を行わせる。認証に成功した旨の通知をサーバ200から受信すると、プロセッサ40は、図32(A)に示すホーム画面2010を表示部452に表示させる。ホーム画面2010を表示させるための各種情報は、配信端末400に予め記憶されていてもよいし、上記通知とともにサーバ200から取得してもよい。
ホーム画面2010は、一例として、アバターオブジェクト610、および、UI画像2011を含む。UI画像2011は、ゲームに参加したユーザ3のリストを表示するための操作を受け付ける。該操作は、例えば、UI画像2011へのタップ操作であってもよい。本変形例では、該リストは、ゲームに参加した各ユーザ3を、課金額に応じて順位付けしたランキング画面として表示される。該ランキング画面は、各ユーザ3のうち、所定の順位以上(例えば、50位以上)のユーザ3のみを含むものであってもよい。ランキング画面は、一例として、図32(B)に示すランキング画面2020であってもよい。プロセッサ40は、サーバ200から取得したユーザリスト234に基づいて、ランキング画面2020を生成する。あるいは、サーバ200がユーザリスト234に基づいてランキング画面2020を生成し、該ランキング画面2020をプロセッサ40へ送信してもよい。なお、UI画像2011に含まれる、「メッセージ待ち○人」とは、ランキング画面2020に含まれるユーザ3のうち、動作指図データがユーザ端末100に送信されていないユーザの人数を示す。図32(A)の例では、ランキング画面2020に含まれるユーザ3のうち、2人に動作指図データが送信されていない。
ランキング画面2020は、タイトル画像2021、ユーザ情報2023A、ユーザ情報2023Bを含む。タイトル画像2021は、「ランキング」とのテキストを含み、該画面がランキング画面であることをプレイヤ4に通知する。タイトル画像2021は、UI画像2022を含む。UI画像2022は、前の画面を再表示させる(前の画面に戻る)ための操作を受け付ける。該操作は、例えば、UI画像2022へのタップ操作であってもよい。UI画像2022へのタップ操作を受け付けると、プロセッサ40は、ホーム画面2010を表示部452に再度表示させる。
ユーザ情報2023A、2023B、2023Cは、ゲームに参加したユーザ3の情報を示す画像である。ユーザ情報2023A、2023Bは、それぞれ、アイコン2024A,2024B、ユーザ名2025A,2025B、順位2026A,2026B、課金額2027A,2027B、送信回数2028A,2028Bを含む。なお、これらについて、区別する必要が無い場合、符号の末尾のアルファベットを省略して記載する。また、ユーザ情報2023Aは、さらに、送信済通知2029、および、前回送信日2030を含む。また、ユーザ情報2023Cは、少なくとも、アイコン2024、ユーザ名2025、順位2026、課金額2027、および送信回数2028を含むが、ユーザ情報2023Cの大部分が、表示部452の表示領域外にあるため、図32(B)の例では表示部452に表示されていない。プロセッサ40は、一例として、タッチスクリーン45に対する、接触させた指などの指示体を移動させる操作(フリック操作、ドラッグ操作など)を受け付けると、表示部452の表示領域に表示させる、ランキング画面2020の領域を変更させてもよい。換言すれば、プロセッサ40は、ランキング画面2020をスクロールさせてもよい。以降、スクロールのための操作を「スクロール操作」と記載する。
なお、本変形例において、ユーザ情報2023Aはユーザ3Aの、ユーザ情報2023Bはユーザ3Bのユーザ情報であるとする。
アイコン2024は、一例として、各ユーザ3が事前に設定した画像である。ユーザ名2025は、ユーザリスト234において、「ユーザ」のカラムに格納されている、ゲームに参加した各ユーザ3を示す情報である。順位2026は、各ユーザ3の順位を示す。課金額2027は、各ユーザ3が、システム1で実行されるゲームに対して課金した金額を示す。なお、本変形例では、課金額2027が示す金額が高いほど、順位2026が示す順位が高くなる。また、本変形例では、順位2026が示す順位が高いほど、ユーザ情報2023がランキング画面2020において上部に配置される。換言すれば、ランキング画面2020は、順位2026が示す順位の順に、ユーザ情報2023を並べた画面である。
送信回数2028は、ユーザ3に対して過去に動作指図データを送信した回数を示す。例えば、送信回数2028Aは、該回数が「2」であるので、プレイヤ4が、ユーザ3Aのユーザ端末100Aに、ありがとう動画再生のための動作指図データを過去に2回送信したことを示している。一方、送信回数2028Bは、該回数が「0」であるので、プレイヤ4は、ユーザ3Bのユーザ端末100Bに、動作指図データを過去に送信したことが無いことを示している。
送信済通知2029は、今回のゲームプレイの後、ユーザ3のユーザ端末100に対して動作指図データを既に送信している場合に表示される。図32(B)の例では、ユーザ情報2023Aに送信済通知2029が含まれているので、プレイヤ4が、今回のゲームプレイの後、ユーザ3Aのユーザ端末100Aに動作指図データを送信したことを示している。一方、ユーザ3Bのユーザ端末100Bには、動作指図データを送信したことが無いため、ユーザ情報2023Bには送信済通知2029は含まれない。
前回送信日2030は、動作指図データの送信について、直近の送信日を示す。ユーザ3Bのユーザ端末100Bには、動作指図データを送信したことが無いため、ユーザ情報2023Bには前回送信日2030は含まれない。
ユーザ情報2023は、プレイヤ4の操作を受け付けるUI画像としても機能する。該操作は、例えば、ユーザ情報2023に対するタップ操作であってもよい。一例として、プロセッサ40は、ユーザ情報2023に対するタップ操作を受け付けると、該タップ操作を受け付けたユーザ情報2023の詳細を示す詳細画面を、表示部452に表示させる。詳細画面は、一例として、図32(C)に示す詳細画面2040であってもよい。
詳細画面2040は、一例として、上述のタイトル画像2021、および、ユーザ情報2041を含む。詳細画面2040におけるUI画像2022へのタップ操作を受け付けた場合、プロセッサ40は、ホーム画面2010を表示部452に再度表示させてもよいし、ランキング画面2020を表示部452に再度表示させてもよい。
図32(C)に示すユーザ情報2041は、ユーザ3Aのユーザ情報を示す画像である。すなわち、プロセッサ40は、ランキング画面2020において、ユーザ情報2023Aに対するタップ操作を受け付けた結果、図32(C)に示すユーザ情報2041を表示部452に表示している。
ユーザ情報2041は、一例として、上述のアイコン2024A、ユーザ名2025A、順位2026A、課金額2027A、および送信回数2028A、前回送信日2030を含む。これらについては既に説明しているため、説明を繰り返さない。さらに、ユーザ情報2041は、一例として、UI画像2031~2034、2037、2038、詳細表示領域2035、およびスクロールバー2036を含む。
UI画像2031は、ユーザ3Aのユーザ端末100Aに対し過去に送信した動作指図データの履歴を示す履歴画面(不図示)を表示させるための操作を受け付ける。該操作は、例えば、UI画像2031に対するタップ操作であってもよい。該履歴画面は、一例として、過去に送信した動作指図データの各々を示すUI画像を、現在から近い順に並べた画面であってもよい。プロセッサ40は、該UI画像に対するタップ操作を受け付けると、該UI画像に対応する動作指図データを用いて動画(ありがとう動画)を再生してもよい。
UI画像2032~2034は、詳細表示領域2035に各種情報を表示させるための操作を受け付ける。該操作は、例えば、UI画像2032~2034それぞれに対するタップ操作であってもよい。詳細表示領域2035は、ユーザ3Aのゲームへの参加について、詳細な情報を表示する領域である。
図32(C)の例では、UI画像2034の表示態様が、UI画像2032およびUI画像2033と異なっている。これはすなわち、図32(C)の例は、UI画像2034へのタップ操作を受け付けた後の詳細画面2040を示している。UI画像2034は、詳細表示領域2035に、ユーザリスト234においてユーザ3Aに対応付けられているタグを表示させるためのタップ操作を受け付ける。このため、図32(C)の例では、詳細表示領域2035に、ユーザリスト234においてユーザ3Aに対応付けられているタグが表示されている。
UI画像2032は、詳細表示領域2035に、ユーザ3Aが直近のゲームにおいてアバターオブジェクト610に送ったコメントを表示させるためのタップ操作を受け付ける。UI画像2033は、詳細表示領域2035に、ユーザ3Aが直近のゲームにおいてアバターオブジェクト610に贈ったアイテムを表示させるためのタップ操作を受け付ける。すなわち、プロセッサ40は、UI画像2032に対するタップ操作を受け付けると、詳細表示領域2035に、ユーザ3Aが直近のゲームにおいてアバターオブジェクト610に送ったコメントの一覧を表示させる。また、プロセッサ40は、UI画像2033に対するタップ操作を受け付けると、詳細表示領域2035に、ユーザ3Aが直近のゲームにおいてアバターオブジェクト610に贈ったアイテムの一覧を表示させる。
プロセッサ40は、詳細画面2040を表示部452に表示させる際、UI画像2032~2034のいずれかが選択されたものとみなし、対応する情報を詳細表示領域2035に表示させてもよい。すなわち、詳細画面2040は、UI画像2032~2034のいずれかに対応する情報が、詳細表示領域2035にデフォルトで表示される画面であってもよい。
スクロールバー2036は、スクロール操作を受け付けるUI画像である。プロセッサ40は、スクロール操作を受け付けると、詳細表示領域2035においてスクロールを行い、スクロール前に非表示であった情報を表示させる。スクロール操作は、スクロールバー2036が表示されている位置とは異なる位置に入力されてもよい。
UI画像2037は、動作指図データを生成するための操作を受け付ける。UI画像2038は、詳細画面2040を非表示とし、ホーム画面2010またはランキング画面2020を再表示させるための操作を受け付ける。これらの操作は、例えば、UI画像2037、2038に対するタップ操作であってもよい。
UI画像2037に対するタップ操作を受け付けると、プロセッサ40は、一例として、図33(A)に示す準備画面2050を表示部452に表示させる。準備画面2050は、一例として、アバターオブジェクト610、UI画像2051、テキスト2052、選択画像2053を含む。UI画像2051は、動作指図データの生成を中止するための操作を受け付ける。該操作は一例として、UI画像2051に対するタップ操作であってもよい。テキスト2052は、一例として、動作指図データの宛先、および、現在の画面が動作指図データを生成するための画面であることを示すテキストである。
選択画像2053は、一例として、動作指図データに基づく動画の再生時間をプレイヤ4に選択させる画像である。選択画像2053は、例えば、UI画像である選択肢2054A~2054Cを含む。選択肢2054Aを選択する操作を受け付けると、プロセッサ40は、動画の再生時間を10秒に決定する。選択肢2054Bを選択する操作を受け付けると、プロセッサ40は、動画の再生時間を20秒に決定する。選択肢2054Cを選択する操作を受け付けると、プロセッサ40は、動画の再生時間を30秒に決定する。該選択する操作は、例えば、選択肢2054A~2054Cの何れかに対するタップ操作であってもよい。なお、本変形例では、選択肢2054Cを選択する操作を受け付けたものとする。また、選択肢の種類および数は、図33(A)の例に限定されない。
選択肢2054A~2054Cの何れかに対するタップ操作を受け付けると、プロセッサ40は、一例として、図33(B)に示す準備画面2060を表示部452に表示させる。準備画面2060は、一例として、アバターオブジェクト610、UI画像2051、テキスト2052、選択画像2061を含む。
選択画像2061は、一例として、動作指図データに含まれるモーションデータをプレイヤ4に選択させる画像である。選択画像2061は、例えば、UI画像である選択肢2062A~2062F、および、UI画像2063を含む。選択肢2062A~2062Fはそれぞれ、異なるモーションデータに対応付けられており、選択肢2062A~2062Fのいずれかを選択する操作(例えば、選択肢2062A~2062Fのいずれかへのタップ操作)を受け付けると、プロセッサ40は、選択された選択肢に対応するモーションデータを特定する。選択肢2062A~2062Fの各々は、一例として、感情を示すテキストを含む。該テキストは、選択肢2062A~2062Fの各々に対応するモーションデータにおけるモーションが、テキストが示す感情に応じたモーションであることを示す。例えば、選択肢2062Aに対応するモーションデータにおけるモーションは、「嬉しい」という感情に応じたモーションである。換言すれば、該モーションは、アバターオブジェクト610が、嬉しいという感情を表現するモーションである。
プロセッサ40は、選択肢2062A~2062Fのいずれかへのタップ操作を受け付けると、タップ操作が入力された選択肢の表示態様を、他の選択肢の表示態様と異ならせてもよい。図33(B)の例では、選択肢2062Aの表示態様が、他の選択肢の表示態様と異なっている。すなわち、図33(B)の例は、選択肢2062に対してタップ操作が入力された後の準備画面2060を示している。
UI画像2063は、動作指図データに含めるモーションデータを、選択されたモーションデータに決定するための操作を受け付ける。該操作は、UI画像2063に対するタップ操作であってもよい。UI画像2063に対するタップ操作を受け付けると、プロセッサ40は、動作指図データに含めるモーションデータを、選択されたモーションデータに決定する。図33(B)の例において、UI画像2063に対するタップ操作を受け付けると、プロセッサ40は、動作指図データに含めるモーションデータを、選択肢2062Aに対応するモーションデータに決定する。
なお、モーションデータの数および種類、すなわち選択画像2061における選択肢の数および種類は、図33(B)の例に限定されない。選択肢の数が多く、選択肢の一部が選択画像2061内に表示できない場合、選択画像2061は、スクロールバーを含んでもよい。プロセッサ40は、スクロール操作を受け付けると、選択画像2061においてスクロールを行い、スクロール前に非表示であった選択肢を表示させる。スクロール操作は、該スクロールバーが表示されている位置とは異なる位置に入力されてもよい。
UI画像2063に対するタップ操作を受け付けると、プロセッサ40は、一例として、図33(C)に示す音声入力画面2070を表示部452に表示させる。音声入力画面2070は、一例として、アバターオブジェクト610、UI画像2051、テキスト2052、タイムバー2071、UI画像2072、2073を含む。
タイムバー2071は、動作指図データの残り時間を示すUI画像である。タイムバー2071は、その全体が第1色(図33(C)の例では白色)に着色されており、左端部に「0:00」、右端部に「0:30」というテキストを含む。すなわち、タイムバー2071の長手方向の長さは、30秒間の時間の経過を示す。
UI画像2072は、音声の入力を開始するための操作を受け付けるUI画像である。該操作は、例えば、UI画像2072に対するタップ操作であってもよい。プレイヤ4は、UI画像2072に対するタップ操作を入力した後、発話を開始する。UI画像2072に対するタップ操作を受け付けると、プロセッサ40は、プレイヤ4が発話した音声を受け付け、該音声から音声データを生成する。また、プロセッサ40は、タイムバー2071の態様を、時間の経過に伴って変更する。一例として、プロセッサ40は、時間の経過にあわせて、タイムバー2071の左端部から右端部に向かって、タイムバー2071の色を第1色から第2色に変更する。この例の場合、タイムバー2071は、UI画像2072に対するタップ操作を受け付けてから30秒後に、その全体が第2色に着色される。
また、UI画像2072に対するタップ操作を受け付けると、プロセッサ40は、一例として、UI画像2072を、音声の入力を終了するための操作を受け付けるUI画像(不図示)に変更してもよい。該操作は、例えば、該UI画像に対するタップ操作であってもよい。該UI画像に対するタップ操作を受け付ける、または、準備画面2050で選択した時間が経過すると、プロセッサ40は、音声の受け付けを終了し、音声データの生成を完了させる。そして、プロセッサ40は、選択されたモーションデータと、該音声データとから動作指図データを生成する。
続いて、プロセッサ40は、音声の入力を終了するための操作を受け付けるUI画像、および、UI画像2073に代えて、動作指図データに基づいて動画を再生するための操作を受け付けるUI画像、動作指図データを選択したユーザ3(本変形例ではユーザ3A)に送信するための操作を受け付けるUI画像、および、音声データの撮り直しを行うための操作を受け付けるUI画像を表示部452に表示させてもよい。これらの操作は、UI画像それぞれに対するタップ操作であってもよい。
動作指図データを選択したユーザ3に送信するための操作を受け付けるUI画像に対するタップ操作を受け付けると、プロセッサ40は、動作指図データをサーバ200へ送信し、選択したユーザ3のユーザ端末100へ動作指図データを送信させる。プロセッサ40は、該タップ操作を受け付けた場合に、動作指図データを送信するか否かをユーザに再度確認させる確認画面を表示させてもよい。該確認画面は、例えば、動作指図データを送信するための操作を受け付けるUI画像と、送信を中止するための操作を受け付けるUI画像とを含む。
動作指図データをサーバ200へ送信すると、プロセッサ40は、一例として、送信が完了したことをユーザに通知する通知画面を表示する。該通知画面は、例えば、ランキング画面2020を再表示させるための操作を受け付けるUI画像を含む。プロセッサ40は、直近の動作指図データの送信に伴い、該当するユーザ3のユーザ情報2023において、送信回数2028および前回送信日2030を更新する。該当するユーザ3に対し、過去に動作指図データを送信したことが無い場合、ユーザ情報2023に、送信済通知2
029を追加する。
UI画像2073は、タグを音声入力画面2070に表示するための操作を受け付けるUI画像である。該操作は、例えば、UI画像2073に対するタップ操作であってもよい。UI画像2073に対するタップ操作を受け付けると、プロセッサ40は、図33(D)に示すように、タグ画像2074を音声入力画面2070に重畳させて表示させる。
タグ画像2074は、ユーザリスト234において、該当するユーザ3(本変形例ではユーザ3A)に対応付けられているタグを含む。タグ画像2074が表示されることにより、プレイヤ4はタグ、すなわち、ユーザ3Aがゲームにおいて行った支援の内容を確認しながら、音声を入力することができる。これにより、プレイヤ4は、ユーザ3Aが行った支援の内容に即した適切な音声データを生成することができる。
なお、タグ画像2074は、タグ以外の情報、例えば、ユーザの課金額、動作指図データの前回送信日、投稿したコメントの一覧、投入したアイテムの一欄などを含んでいてもよい。あるいは、タグ画像2074に含まれるUI画像(不図示)への操作を受け付けた場合に、プロセッサ40は、タグ以外の上記情報を表示部452(例えば、タグ画像2074内)に表示させてもよい。
UI画像2073に対するタップ操作を受け付けると、プロセッサ40は、図33(D)に示すように、UI画像2073をUI画像2075に変更してもよい。UI画像2075は、タグ画像2074を非表示とするための操作を受け付けるUI画像である。該操作は、例えば、UI画像2075に対するタップ操作であってもよい。UI画像2075に対するタップ操作を受け付けると、プロセッサ40は、タグ画像2074を非表示とする。すなわち、音声入力画面2070は、図33(C)に示す音声入力画面2070に戻る。
ホーム画面2010は、異なるランキング画面を表示させるための操作を受け付ける複数のUI画像を含んでもよい。異なるランキング画面とは、例えば、直近1週間の課金額に応じたランキングである週間ランキングのランキング画面、直近1カ月の課金額に応じたランキングである月間ランキングのランキング画面、サービス開始から現在までの累計の課金額に応じたランキングである累計ランキングのランキング画面などが挙げられるが、これに限定されない。
また、ランキングは、課金額の大きさのみで順位が決定されるものに限定されない。例えば、ランキングは、課金額の大きさと、ゲームにおいて獲得したポイントの値とに基づいて順位が決定されてもよい。この例において、順位は、課金額の値とポイントの値とを合計した合計値の大きい順としてもよいし、課金額の値とポイントの値の各々に対し、それぞれ重み付けを行った後に合計してもよい。
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
(付記1):
本開示に示す一実施形態のある局面によれば、第1ユーザを含む複数のユーザが参加する仮想空間内でのイベントを、前記第1ユーザが使用する第1コンピュータ(ユーザ端末100A)に実行させるためのプログラムであって、前記イベントに登場するキャラクタを(アバターオブジェクト610)前記仮想空間に表示するステップ(S87)と、外部から受信した第1データに基づいて前記キャラクタを動作させるステップ(S87)と、を前記第1コンピュータに実行させ、前記第1データは、前記キャラクタを演じる演者の入力したモーションデータ及び音声データを含むデータであって、前記外部から前記複数のユーザが使用する複数のコンピュータに共通に送信されるデータであり、前記表示するステップでは、前記第1コンピュータで実行される前記イベントに登場する前記キャラクタを、前記第1コンピュータを除く前記複数のコンピュータの少なくともいずれかで実行される前記イベントに登場する前記キャラクタと異なる表示態様で表示可能である。
(付記2):
(付記1)において、前記第1コンピュータは前記キャラクタを複数種類の表示態様のうちのいずれかで表示するための表示用データ(オブジェクトデータ)を記憶するメモリ(メモリ11)を備え、前記表示するステップは、前記メモリに記憶されている表示用データのうちの前記第1ユーザに応じた表示用データを用いた表示態様で前記キャラクタを表示する。
(付記3):
(付記2)において、前記イベントは、前記仮想空間内で行われるゲームであり、前記第1ユーザによるゲームの進行に応じて更新される当該第1ユーザに関するゲーム履歴情報(ランキング)を特定するステップを前記第1コンピュータに実行させ、前記表示するステップは、前記メモリに記憶されている表示用データのうち、前記特定するステップにより特定されるゲーム履歴情報に応じた表示用データを用いた表示態様で前記キャラクタを表示する。
(付記4):
(付記3)において、前記ゲーム履歴情報は、前記複数のユーザ間における前記第1ユーザのランクを特定するための情報である。
(付記5):
(付記3)または(付記4)において、配信者によって操作されるキャラクタが仮想空間内に配置されるゲームの進行に応じて前記ゲーム履歴情報を更新するための更新処理を行うステップを前記第1コンピュータに実行させる。
(付記6):
(付記5)において、前記第1ユーザにより配信者に対して特典を付与するステップを前記第1コンピュータに実行させ、前記更新処理を行うステップは、特典を付与することにより前記ゲーム履歴情報を更新するための処理を行う。
(付記7):
(付記6)において、前記特典には所定のポイント量が関連付けられており、前記更新処理を行うステップは、付与された特典に関連付けられているポイント量に応じて前記ゲーム履歴情報を更新するための処理を行う。
(付記8):
(付記3)から(付記7)のいずれかにおいて、前記ゲーム履歴情報が更新されることに応じて、前記キャラクタの表示に用いることが可能となる表示態様を更新可能とするステップ(S84)を前記第1コンピュータに実行させる。
(付記9):
(付記1)から(付記8)のいずれかにおいて、前記表示するステップは、前記キャラクタの特定部位についてはユーザに応じて異なり、前記キャラクタの前記特定部位と異なる部位についてはユーザにかかわらず共通の表示態様で、前記キャラクタを表示する。
(付記10):
本開示に示す一実施形態のある局面によれば、第1ユーザを含む複数のユーザが参加する仮想空間内でのイベントを実行するためのプログラムを、前記第1ユーザが使用する第1コンピュータ(ユーザ端末100A)が実行する方法であって、前記イベントに登場するキャラクタ(アバターオブジェクト610)を前記仮想空間に表示するステップ(S87)と、外部から受信した第1データに基づいて前記キャラクタを動作させるステップ(S87)と、を備え、前記第1データは、前記キャラクタを演じる演者の入力したモーションデータ及び音声データを含むデータであって、前記外部から前記複数のユーザが使用する複数のコンピュータに共通に送信されるデータであり、前記表示するステップでは、前記第1コンピュータで実行される前記イベントに登場する前記キャラクタを、前記第1コンピュータを除く前記複数のコンピュータの少なくともいずれかで実行される前記イベントに登場する前記キャラクタと異なる表示態様で表示可能である。
(付記11):
本開示に示す一実施形態のある局面によれば、第1ユーザを含む複数のユーザが参加する仮想空間内でのイベントを実行する、前記第1ユーザが使用する第1コンピュータ(ユーザ端末100A)であって、前記第1コンピュータは、前記イベントを前記第1コンピュータに実行させるためのプログラムを記憶する記憶部(記憶部120)と、前記プログラムを実行することにより、前記第1コンピュータの動作を制御する制御部(制御部110)と、を備え、前記制御部は、前記イベントに登場するキャラクタ(アバターオブジェクト610)を前記仮想空間に表示するステップ(S87)と、外部から受信した第1データに基づいて前記キャラクタを動作させるステップ(S87)と、を実行し、前記第1データは、前記キャラクタを演じる演者の入力したモーションデータ及び音声データを含むデータであって、前記外部から前記複数のユーザが使用する複数のコンピュータに共通に送信されるデータであり、前記表示するステップでは、前記第1コンピュータで実行される前記イベントに登場する前記キャラクタを、前記第1コンピュータを除く前記複数のコンピュータの少なくともいずれかで実行される前記イベントに登場する前記キャラクタと異なる表示態様で表示可能である。
〔ソフトウェアによる実現例〕
ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット1000)、および配信端末400の制御ブロック(特に制御部110、210、310、410)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット1000)、および配信端末400は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。