JP2019166325A - 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム - Google Patents
情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP2019166325A JP2019166325A JP2019071592A JP2019071592A JP2019166325A JP 2019166325 A JP2019166325 A JP 2019166325A JP 2019071592 A JP2019071592 A JP 2019071592A JP 2019071592 A JP2019071592 A JP 2019071592A JP 2019166325 A JP2019166325 A JP 2019166325A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- user
- virtual space
- character
- hmd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】複数のユーザに共有される仮想空間における仮想体験のエンタテイメント性を向上させ得る。【解決手段】情報処理方法は、第1ユーザに関連付けられた第1アバター、第1ユーザによる第1操作入力に基づいて仮想空間内に定義されたフィールド内で動作する第1キャラクタ、第1操作入力とは異なる操作データによって制御される第2アバター、および第2アバターに関連付けられフィールド内で動作する第2キャラクタを含む仮想空間において実行されるゲームにおける第1アバター、第1キャラクタ、第2アバター、および第2キャラクタのいずれかの動作に基づくゲームの進行を示すゲーム進行データに基づいて、第1ユーザのゲーム進行を有利または不利にさせるよう調整するステップと、第1アバター、第1キャラクタ、第2アバター、および第2キャラクタの操作結果に基づいて、第1アバターから視界画像を生成するステップと、を備える。【選択図】図14
Description
本開示は、情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。
仮想空間におけるゲーム体験(VRゲーム)をユーザに提供するハードウェアとして、プレイステーション(登録商標)VRが知られている(非特許文献1参照)。プレイステーションVRでは、ユーザは、例えば両手で保持可能なコントローラを用いて仮想空間におけるプレイヤキャラクタ等を操作することにより、VRゲームをプレイすることができる。コントローラを用いてVRゲームをプレイするための技術については、特許文献1,2にも開示されている。
"PlayStation(登録商標)VR"、[online]、SONY、[平成29 年2月8日検索]、インターネット<http://www.jp.playstation.com/psvr/>
ところで、複数のユーザが仮想空間で各自のプレイヤキャラクタを操作するマルチプレイゲームにおいては、各ユーザは他のユーザによって操作されるプレイヤキャラクタを認識することはできるが、他のユーザ自身の存在を認識することができない。したがって、このようなゲームデザインには、複数人で盛り上がってゲームをプレイしている感覚が得られにくいという問題がある。
本開示は、上述のような問題点を解決するためになされたものであり、複数のユーザに共有される仮想空間における仮想体験のエンタテイメント性を向上させ得る情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
本開示が示す一態様によれば、表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想空間を提供するためにコンピュータにより実行される情報処理方法であって、前記第1ユーザに関連付けられた第1アバター、前記第1ユーザによる第1操作入力に基づいて前記仮想空間内に定義されたフィールド内で動作する当該第1アバターに関連付けられた第1キャラクタ、前記第1操作入力とは異なる操作データによって制御される第2アバター、および前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタを含む仮想空間を規定する仮想空間データを特定するステップと、前記仮想空間において実行されるゲームにおける前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタのいずれかの動作に基づく前記のゲームの進行を示すゲーム進行データに基づいて、前記第1ユーザのゲーム進行を有利または不利にさせるよう調整するステップと、前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタの操作結果に基づいて、前記第1アバターから視界画像を生成するステップと、を備える。
本開示によれば、複数のユーザに共有される仮想空間における仮想体験のエンタテイメント性を向上させ得る情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラムを提供することが可能となる。
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[HMDシステムの構成]
図1を参照して、HMD(Head Mount Device)システム100の構成について説明する。図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
図1を参照して、HMD(Head Mount Device)システム100の構成について説明する。図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
HMDシステム100は、HMD装置110(ヘッドマウントデバイス)と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD装置110は、モニタ112(表示部)と、マイク118と、注視センサ140とを含む。
ある局面において、コンピュータ200は、インターネットその他のネットワーク19に接続可能であり、ネットワーク19に接続されているサーバ150その他のコンピュータと通信可能である。別の局面において、HMD装置110は、HMDセンサ120の代わりに、センサ114を含み得る。
HMD装置110は、ユーザの頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD装置110は、右目用の画像および左目用の画像をモニタ112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。
モニタ112は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ112は、ユーザの両目の前方に位置するようにHMD装置110の本体に配置されている。したがって、ユーザは、モニタ112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施の形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、およびユーザが選択可能なメニューの画像等を含む。ある実施の形態において、モニタ112は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。モニタ112は、HMD装置110の本体と一体に構成されてもよいし、別体として構成されてもよい。
ある局面において、モニタ112は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
マイク118は、ユーザが発した音声を取得する。マイク118によって取得された音声は、音声解析処理によってユーザの感情を検知するために使用され得る。検知結果は、後述するアバターの表情等に反映されてもよい。当該音声は、仮想空間2に対して、音声による指示を与えるためにも使用され得る。また、当該音声は、ネットワーク19およびサーバ150等を介して、他のユーザが使用するHMDシステムに送られ、当該HMDシステムに接続されたスピーカ等から出力されてもよい。これにより、仮想空間を共有するユーザ間での会話(チャット)が実現される。
HMDセンサ120は、複数の光源(図示しない)を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD装置110およびコントローラ160の動きを検出するためのポジショントラッキング機能を有する。HMDセンサ120は、この機能を用いて、現実空間内におけるHMD装置110の位置および傾き、ならびにコントローラ160の位置および傾きを検出する。
なお、別の局面において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD装置110およびコントローラ160の画像情報を用いて、画像解析処理を実行することにより、HMD装置110の位置および傾き、ならびにコントローラ160の位置および傾きを検出することができる。
別の局面において、HMD装置110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD装置110は、センサ114を用いて、HMD装置110自身の位置および傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、あるいはジャイロセンサ等である場合、HMD装置110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD装置110の3軸周りの角速度を経時的に検出する。HMD装置110は、各角速度に基づいて、HMD装置110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD装置110の傾きを算出する。また、HMD装置110は、透過型表示装置を備えていてもよい。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視界画像は仮想空間を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。例えば、HMD装置110に搭載されたカメラで撮影した画像を視界画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視界画像の一部から現実空間を視認可能にしてもよい。
注視センサ140は、ユーザ190の右目および左目の視線が向けられる方向(視線方向)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線方向を検知することができる。
サーバ150は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ150は、他のユーザによって使用されるHMD装置に仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行う場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。なお、サーバ150は、一または複数のコンピュータ装置により構成され、後述するコンピュータ200のハードウェア構成と同様に、一般的なコンピュータが備えるハードウェア構成(プロセッサ、メモリ、ストレージ等)を備える。
コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ160は、ユーザ190によって把持可能に構成される。本実施形態では、コントローラ160は、ユーザ190によって両手で把持されるタイプの入力装置である。別の局面において、コントローラ160は、コンピュータ200から送られる信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の局面において、コントローラ160は、仮想現実を提供する空間に配置されるオブジェクトの位置および動き等を制御するためにユーザ190によって与えられる操作を受け付ける。上述したように、現実空間におけるコントローラ160の位置および傾きは、HMDセンサ120(あるいはカメラ等)によって検出され得る。別の局面において、コントローラ160は、位置検出器として、上述したセンサ114と同様のセンサ(図示しない)を備えてもよい。この場合、当該センサにより、コントローラ160の位置および傾きが検出され得る。また、HMDセンサ120とコントローラ160が備えるセンサとが併用されてもよい。この場合、例えば、コントローラ160の位置はHMDセンサ120によって検出され、コントローラ160の傾きはコントローラ160が備えるセンサによって検出される。
[ハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
プロセッサ10は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ11またはストレージ12に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。
メモリ11は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ12からロードされる。メモリ11に保存されるデータは、コンピュータ200に入力されたデータと、プロセッサ10によって生成されたデータとを含む。ある局面において、メモリ11は、RAM(Random Access Memory)その他の揮発性メモリとして実現される。
ストレージ12は、プログラムおよびデータを永続的に保持する。ストレージ12は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発性記憶装置として実現される。ストレージ12に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、および他のコンピュータ200との通信を実現するためのプログラム等を含む。ストレージ12に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。
なお、別の局面において、ストレージ12は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ12の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムおよびデータ等の更新を一括して行うことが可能になる。
ある実施の形態において、入出力インターフェース13は、HMD装置110およびHMDセンサ120との間で信号を通信する。ある局面において、入出力インターフェース13は、USB(Universal Serial Bus)インターフェース、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。なお、入出力インターフェース13は上述のものに限られない。例えば、入出力インターフェース13は、Bluetooth(登録商標)等の無線通信インターフェースを含んでもよい。
ある実施の形態において、入出力インターフェース13は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェース13は、コントローラ160から出力された信号の入力を受ける。別の局面において、入出力インターフェース13は、プロセッサ10から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。
通信インターフェース14は、ネットワーク19に接続されて、ネットワーク19に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある局面において、通信インターフェース14は、例えば、LAN(Local Area Network)その他の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェースとして実現される。なお、通信インターフェース14は上述のものに限られない。
ある局面において、プロセッサ10は、ストレージ12にアクセスし、ストレージ12に格納されている1つ以上のプログラムをメモリ11にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、コントローラ160を用いて仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ10は、入出力インターフェース13を介して、仮想空間を提供するための信号をHMD装置110に送る。HMD装置110は、その信号に基づいてモニタ112に映像を表示する。
サーバ150は、ネットワーク19を介して複数のHMDシステム100の各々の制御装置と接続される。図2に示される例では、サーバ150は、HMD装置110Aを有するHMDシステム100Aと、HMD装置110Bを有するHMDシステム100Bとを含む複数のHMDシステム100を互いに通信可能に接続する。これにより、共通の仮想空間を用いた仮想体験が各HMDシステムを使用するユーザに提供される。なお、HMDシステム100A、HMDシステム100B、およびその他のHMDシステム100は、いずれも同様の構成を備える。ただし、各HMDシステム100は、互いに異なる機種であってもよいし、互いに異なる性能(処理性能および検知性能等)を有するものであってもよい。
なお、図2に示される例では、コンピュータ200がHMD装置110の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD装置110に内蔵されてもよい。一例として、モニタ112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
また、コンピュータ200は、複数のHMD装置110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。なお、このような場合、本実施形態における複数のHMDシステム100は、入出力インターフェース13により、コンピュータ200に直接接続されてもよい。また、本実施形態におけるサーバ150の各機能(例えば後述する同期処理等)は、コンピュータ200に実装されてもよい。
ある実施の形態において、HMDシステム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施の形態では、グローバル座標系は視点座標系の一つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
ある局面において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD装置110の各光源から発せられた赤外線をそれぞれ検出すると、HMD装置110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD装置110を装着したユーザ190の動きに応じた、現実空間内におけるHMD装置110の位置および傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD装置110の位置および傾きの時間的変化を検出できる。
グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD装置110の各傾きは、グローバル座標系におけるHMD装置110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD装置110の傾きに基づき、uvw視野座標系をHMD装置110に設定する。HMD装置110に設定されるuvw視野座標系は、HMD装置110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。
[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD装置110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD装置110の起動時に、グローバル座標系におけるHMD装置110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD装置110に設定する。
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD装置110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD装置110の起動時に、グローバル座標系におけるHMD装置110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD装置110に設定する。
図3に示されるように、HMD装置110は、HMD装置110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD装置110は、グローバル座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD装置110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD装置110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
ある局面において、HMD装置110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ10は、グローバル座標系に平行なuvw視野座標系をHMD装置110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD装置110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。
uvw視野座標系がHMD装置110に設定された後、HMDセンサ120は、HMD装置110の動きに基づいて、設定されたuvw視野座標系におけるHMD装置110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD装置110の傾きとして、uvw視野座標系におけるHMD装置110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD装置110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD装置110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD装置110の傾き角度を表す。
HMDセンサ120は、検出されたHMD装置110の傾き角度に基づいて、HMD装置110が動いた後のHMD装置110におけるuvw視野座標系を、HMD装置110に設定する。HMD装置110と、HMD装置110のuvw視野座標系との関係は、HMD装置110の位置および傾きに関わらず、常に一定である。HMD装置110の位置および傾きが変わると、当該位置および傾きの変化に連動して、グローバル座標系におけるHMD装置110のuvw視野座標系の位置および傾きが変化する。
ある局面において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD装置110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ10は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD装置110のuvw視野座標系の原点を決定してもよい。
[仮想空間]
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
ある局面において、仮想空間2では、中心21を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、グローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。
HMD装置110の起動時、すなわちHMD装置110の初期状態において、仮想カメラ1は、例えば仮想空間2の中心21に配置される。仮想カメラ1は、現実空間におけるHMD装置110の動きに連動して、仮想空間2を同様に移動する。これにより、現実空間におけるHMD装置110の位置および向きの変化が、仮想空間2において同様に再現される。
仮想カメラ1には、HMD装置110の場合と同様に、uvw視野座標系が規定される。仮想空間2における仮想カメラ1のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD装置110のuvw視野座標系に連動するように規定されている。したがって、HMD装置110の傾きが変化すると、それに応じて、仮想カメラ1の傾きも変化する。また、仮想カメラ1は、HMD装置110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動することもできる。
仮想カメラ1の向きは、仮想カメラ1の位置および傾きに応じて決まるので、ユーザが仮想空間画像22を視認する際に基準となる視線(基準視線5)は、仮想カメラ1の向きに応じて決まる。コンピュータ200のプロセッサ10は、基準視線5に基づいて、仮想空間2における視界領域23を規定する。視界領域23は、仮想空間2のうち、HMD装置110を装着したユーザの視界に対応する。
注視センサ140によって検出されるユーザ190の視線方向は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD装置110のuvw視野座標系は、ユーザ190がモニタ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD装置110のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたユーザ190の視線方向を、仮想カメラ1のuvw視野座標系におけるユーザの視線方向とみなすことができる。
[ユーザの視線]
図5を参照して、ユーザの視線方向の決定について説明する。図5は、ある実施の形態に従うHMD装置110を装着するユーザ190の頭部を上から表した図である。
図5を参照して、ユーザの視線方向の決定について説明する。図5は、ある実施の形態に従うHMD装置110を装着するユーザ190の頭部を上から表した図である。
ある局面において、注視センサ140は、ユーザ190の右目および左目の各視線を検出する。ある局面において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール方向wに対して視線R2およびL2がなす角度は、ロール方向wに対して視線R1およびL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線方向N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線方向N0として検出する。視線方向N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線方向N0は、視界領域23に対してユーザ190が実際に視線を向けている方向に相当する。
また、別の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間2においてテレビ番組を表示することができる。
さらに別の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
[視界領域]
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
図6に示されるように、YZ断面における視界領域23は、領域24を含む。領域24は、仮想カメラ1の基準視線5と仮想空間2のYZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心として極角αを含む範囲を、領域24として規定する。
図7に示されるように、XZ断面における視界領域23は、領域25を含む。領域25は、基準視線5と仮想空間2のXZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、領域25として規定する。
ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像をモニタ112に表示させることにより、ユーザ190に仮想空間を提供する。視界画像は、仮想空間画像22のうち視界領域23に重畳する部分に相当する。ユーザ190が、頭に装着したHMD装置110を動かすと、その動きに連動して仮想カメラ1も動く。その結果、仮想空間2における視界領域23の位置が変化する。これにより、モニタ112に表示される視界画像は、仮想空間画像22のうち、仮想空間2においてユーザが向いた方向の視界領域23に重畳する画像に更新される。ユーザは、仮想空間2における所望の方向を視認することができる。
ユーザ190は、HMD装置110を装着している間、現実世界を視認することなく、仮想空間2に展開される仮想空間画像22のみを視認できる。そのため、HMDシステム100は、仮想空間2への高い没入感覚をユーザに与えることができる。
ある局面において、プロセッサ10は、HMD装置110を装着したユーザ190の現実空間における移動に連動して、仮想空間2において仮想カメラ1を移動し得る。この場合、プロセッサ10は、仮想空間2における仮想カメラ1の位置および向きに基づいて、HMD装置110のモニタ112に投影される画像領域(すなわち、仮想空間2における視界領域23)を特定する。すなわち、仮想カメラ1によって、仮想空間2におけるユーザ190の視野が定義される。
ある実施の形態に従うと、仮想カメラ1は、二つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含むことが望ましい。また、ユーザ190が3次元の仮想空間2を認識できるように、適切な視差が、二つの仮想カメラに設定されていることが好ましい。本実施の形態においては、仮想カメラ1が二つの仮想カメラを含み、二つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD装置110のロール方向(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。
[コントローラ]
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。図8の状態(A)は、コントローラ160の上面の外観構成を示しており、図8の状態(B)は、コントローラ160の奥側側面の外観構成を示している。ここで、コントローラ160の上面とは、ユーザ190がコントローラ160を両手で保持した場合に、ユーザ190の方を向く面である。
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。図8の状態(A)は、コントローラ160の上面の外観構成を示しており、図8の状態(B)は、コントローラ160の奥側側面の外観構成を示している。ここで、コントローラ160の上面とは、ユーザ190がコントローラ160を両手で保持した場合に、ユーザ190の方を向く面である。
図8の状態(A)に示されるように、コントローラ160の上面には、入力部としての、方向キー161、アナログスティック162L,162R、4種の操作ボタン163、タッチパッド164、および機能ボタン165等が設けられている。また、コントローラ160は、ユーザ190がコントローラ160を把持するための把持部166を有する。把持部166は、ユーザ190の左手によって把持される左把持部166Lとユーザ190の右手によって把持される右把持部166Rとを有する。また、図8の状態(B)に示されるように、コントローラ160の奥側側面には、入力部としての上部ボタン167L,167Rと、コントローラ160から送信される指示情報等に基づいて発光する発光部168とが設けられている。
タッチパッド164は、方向キー161と操作ボタン163との間に設けられている。機能ボタン165は、左右のアナログスティック162L,162Rの間に設けられている。機能ボタン165は、例えばコントローラ160を起動したり、コントローラ160とコンピュータ200との間の通信接続をアクティブにしたりするために使用され得る。その他の入力部(方向キー161、アナログスティック162、操作ボタン163、および上部ボタン167)は、後述するアバターおよびプレイヤキャラクタの操作等に使用され得る。例えば、アナログスティック162は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間2に配置されるオブジェクトを移動させるための操作を含む。
方向キー161およびアナログスティック162Lは、ユーザ190の左手の親指による操作を受け付けることを想定して配置されている。操作ボタン163およびアナログスティック162Rは、ユーザ190の右手の親指による操作を受け付けることを想定して配置されている。上部ボタン167Lは、ユーザ190の左手の人差し指による操作を受け付けることを想定して配置されており、上部ボタン167Rは、ユーザ190の右手の人差し指による操作を受け付けることを想定して配置されている。ただし、コントローラ160の形状、各部の配置構成、および各部の機能は、上記例に限られない。例えば、操作ボタン163の個数は4つ以外(例えば2つ)であってもよいし、アナログスティック162L,162Rが省略されてもよい。
ある局面において、コントローラ160は、発光部168その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型等を含むが、これらに限定されない。別の局面において、コントローラ160は、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、コントローラ160は、電池を必要としない。
[HMD装置の制御装置]
図9を参照して、HMD装置110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
図9を参照して、HMD装置110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
図9に示されるように、コンピュータ200は、表示制御モジュール220と、仮想空間制御モジュール230と、メモリモジュール240と、通信制御モジュール250とを備える。表示制御モジュール220は、サブモジュールとして、仮想カメラ制御モジュール221と、視界領域決定モジュール222と、視界画像生成モジュール223と、基準視線特定モジュール224とを含む。仮想空間制御モジュール230は、サブモジュールとして、仮想空間定義モジュール231と、仮想オブジェクト制御モジュール232と、コントローラ情報取得モジュール233と、チャット制御モジュール234とを含む。
ある実施の形態において、表示制御モジュール220と仮想空間制御モジュール230とは、プロセッサ10によって実現される。別の実施の形態において、複数のプロセッサ10が表示制御モジュール220と仮想空間制御モジュール230として作動してもよい。メモリモジュール240は、メモリ11またはストレージ12によって実現される。通信制御モジュール250は、通信インターフェース14によって実現される。
ある局面において、表示制御モジュール220は、HMD装置110のモニタ112における画像表示を制御する。仮想カメラ制御モジュール221は、仮想空間2に仮想カメラ1を配置し、仮想カメラ1の挙動、向き等を制御する。視界領域決定モジュール222は、HMD装置110を装着したユーザの頭の向きに応じて、視界領域23を規定する。視界画像生成モジュール223は、決定された視界領域23に基づいて、モニタ112に表示される視界画像を生成する。基準視線特定モジュール224は、注視センサ140からの信号に基づいて、ユーザ190の視線を特定する。
仮想空間制御モジュール230は、ユーザ190に提供される仮想空間2を制御する。仮想空間定義モジュール231は、仮想空間2を表す仮想空間データを生成することにより、HMDシステム100における仮想空間2を規定する。
仮想オブジェクト制御モジュール232は、後述するオブジェクト情報242に基づいて、仮想空間2に配置される仮想オブジェクトを生成する。また、仮想オブジェクト制御モジュール232は、仮想空間2における仮想オブジェクトの動作(移動および状態変化等)を制御する。また、仮想オブジェクト制御モジュール232は、後述するコントローラ情報取得モジュール233により取得されたコントローラ情報等に基づいて、アバターおよびプレイヤキャラクタの動作(移動および状態変化等)を制御する。仮想オブジェクトは、例えば、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、動物等を含み得る。アバターは、HMD装置110を装着したユーザに関連付けられたオブジェクトである。アバターは、仮想空間2におけるユーザの分身としての位置付けを有するオブジェクトである。一方、プレイヤキャラクタは、仮想空間2で展開されるゲームにおいて、ユーザによって操作されるキャラクタオブジェクトである。本実施形態では、仮想空間2で展開されるゲームは、複数のユーザが仮想空間2に用意されたゲームフィールド(例えば闘技場)上で各自のプレイヤキャラクタ同士を闘わせる対戦ゲーム(あるいは、複数のユーザ同士が協力して進めるアクションゲーム等)である。また、アバターは人型のオブジェクトであり、プレイヤキャラクタは動物を模したオブジェクトである。ただし、プレイヤキャラクタは、仮想空間2で展開されるゲームの内容に応じて適宜の形態を採り得る。例えば、プレイヤキャラクタは、人型のオブジェクトであってもよいし、ロボット等の生物以外を模したオブジェクトであってもよい。より具体的には、仮想空間2で展開されるゲームがラジコンカーを用いたレースゲームである場合、プレイヤキャラクタは、ラジコンカーを表すオブジェクトであってもよい。
コントローラ情報取得モジュール233は、コントローラ160の状態を特定するための状態情報と、コントローラ160に対するユーザ190による入力操作の内容を示す操作情報とを含むコントローラ情報を取得する。状態情報は、例えば、上述したHMDセンサ120等により検出されたコントローラ160の位置および傾きを特定するための情報である。コントローラ情報は、コントローラ160の状態およびコントローラ160に対する入力操作の内容を仮想空間2におけるアバターまたはプレイヤキャラクタに反映させるために、仮想オブジェクト制御モジュール232に受け渡される。また、コントローラ情報取得モジュール233は、後述するチャット制御モジュール234を介して取得された他のユーザのコントローラ情報についても、適宜仮想オブジェクト制御モジュール232に受け渡す。これにより、他のユーザに関連付けられたアバターまたはプレイヤキャラクタを、他のユーザのコントローラ情報に基づいて動作させることができる。
チャット制御モジュール234は、同じ仮想空間2に滞在する他のユーザのアバターとチャットをするための制御を行う。例えば、チャット制御モジュール234は、仮想空間2を介したチャットを行うために必要なデータ(例えば、マイク118に入力された音声データ)をサーバ150に送信する。また、チャット制御モジュール234は、サーバ150から受信した他のユーザの音声データを図示しないスピーカに出力する。これにより、音声によるチャットが実現される。また、チャット制御モジュール234は、その他ユーザ間で共有すべきデータについても、サーバ150を介して他のユーザのHMDシステム100との間で送受信する。共有すべきデータとしては、アバターの身体の一部の動作を制御するための動き情報、およびプレイヤキャラクタの動作を制御するためのコントローラ情報等がある。動き情報は、例えば、HMDセンサ120等により検出されたHMD装置110の位置および傾きを特定するための情報(以下「向きデータ」)、および注視センサ140等により検出されたアイトラッキングデータ等である。本実施形態では、チャット制御モジュール234は、音声データと動き情報とコントローラ情報とを含む情報(以下「プレイヤ情報」という。)を、ユーザ間で共有すべき情報として、サーバ150を介して他のユーザのHMDシステム100との間で送受信する。プレイヤ情報の送受信は、後述する通信制御モジュール250の機能を利用することにより実現される。
仮想空間制御モジュール230は、仮想空間2に配置されるオブジェクトのそれぞれが、他のオブジェクトと衝突した場合に、当該衝突を検出する。仮想空間制御モジュール230は、例えば、あるオブジェクトと、別のオブジェクトとが触れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行う。仮想空間制御モジュール230は、オブジェクトとオブジェクトとが触れている状態から離れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行う。仮想空間制御モジュール230は、例えばオブジェクト毎に設定されたコリジョンエリアに基づく公知の当たり判定を実行することにより、オブジェクトとオブジェクトとが触れている状態であることを検出することができる。
メモリモジュール240は、コンピュータ200が仮想空間2をユーザ190に提供するために使用されるデータを保持している。ある局面において、メモリモジュール240は、空間情報241と、オブジェクト情報242と、ユーザ情報243とを保持している。空間情報241には、例えば、仮想空間2を提供するために規定された1つ以上のテンプレートが含まれている。オブジェクト情報242には、例えば、仮想空間2において再生されるコンテンツ、当該コンテンツで使用されるオブジェクトを配置するための情報等が含まれている。当該コンテンツは、例えば、ゲーム、現実社会と同様の風景を表したコンテンツ等を含み得る。オブジェクト情報242には、各オブジェクト(例えば、仮想オブジェクトおよびアバター等)を描画するための描画情報も含まれている。また、オブジェクト情報242は、各オブジェクトに関連付けられた属性を示す属性情報も含み得る。仮想オブジェクトの属性情報としては、例えば当該仮想オブジェクトが可動物であるか固定物であるかを示す情報等が挙げられる。ユーザ情報243には、例えば、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム、オブジェクト情報242に保持される各コンテンツを使用するアプリケーションプログラム等が含まれている。
メモリモジュール240に格納されているデータおよびプログラムは、HMD装置110のユーザによって入力される。あるいは、プロセッサ10が、当該コンテンツを提供する事業者が運営するコンピュータ(例えば、サーバ150)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール240に格納する。
通信制御モジュール250は、ネットワーク19を介して、サーバ150その他の情報通信装置と通信し得る。
ある局面において、表示制御モジュール220および仮想空間制御モジュール230は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、表示制御モジュール220および仮想空間制御モジュール230は、各処理を実現する回路素子の組み合わせとしても実現され得る。
コンピュータ200における処理は、ハードウェアと、プロセッサ10により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール240に予め格納されている場合がある。また、ソフトウェアは、CD−ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール250を介してサーバ150その他のコンピュータからダウンロードされた後、メモリモジュール240に一旦格納される。そのソフトウェアは、プロセッサ10によってメモリモジュール240から読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ10は、そのプログラムを実行する。
図9に示されるコンピュータ200を構成するハードウェアは、一般的なものである。したがって、本実施の形態に係る最も本質的な部分は、コンピュータ200に格納されたプログラムであるともいえる。なお、コンピュータ200のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。
ここでいうプログラムとは、プロセッサ10により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。
[制御構造]
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。図10は、ユーザ190A(第1ユーザ)によって使用されるHMDシステム100Aがユーザ190Aに仮想空間2を提供するために実行する処理を表すフローチャートである。
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。図10は、ユーザ190A(第1ユーザ)によって使用されるHMDシステム100Aがユーザ190Aに仮想空間2を提供するために実行する処理を表すフローチャートである。
ステップS1において、コンピュータ200のプロセッサ10は、仮想空間定義モジュール231として、仮想空間画像データを特定し、仮想空間2を定義する仮想空間データを取得する。ここで、プロセッサ10は、仮想空間2を共有する他のユーザのアバターおよびプレイヤキャラクタの初期配置等に関する情報をサーバ150等から受信することにより、当該他のユーザのアバターおよびプレイヤキャラクタを含む仮想空間2を定義する仮想空間データを生成することができる。あるいは、各HMDシステム100と通信可能に接続されたサーバ150によって、複数のユーザに共通の仮想空間2を定義する仮想空間データが生成されてもよい。この場合、プロセッサ10は、サーバ150から仮想空間データをダウンロードすることにより、仮想空間データを取得することができる。
ステップS2において、プロセッサ10は、仮想カメラ制御モジュール221として、仮想カメラ1を初期化する。例えば、プロセッサ10は、メモリのワーク領域において、仮想カメラ1を仮想空間2において予め規定された中心点(あるいはその他の予め規定されたデフォルト位置)に配置し、仮想カメラ1の視線をユーザ190が向いている方向に向ける。
ステップS3において、プロセッサ10は、視界画像生成モジュール223として、初期の視界画像を表示するための視界画像データを生成する。生成された視界画像データは、視界画像生成モジュール223を介して通信制御モジュール250によってHMD装置110に送られる。
ステップS4において、HMD装置110のモニタ112は、コンピュータ200から受信した信号に基づいて、視界画像を表示する。HMD装置110を装着したユーザ190Aは、視界画像を視認すると仮想空間2を認識し得る。
ステップS5において、HMDセンサ120は、HMD装置110から発信される複数の赤外線光に基づいて、HMD装置110の位置と傾きを検知する。検知結果は、動き検知データとして、コンピュータ200に送られる。
ステップS6において、プロセッサ10は、視界領域決定モジュール222として、HMD装置110の位置と傾きとに基づいて、HMD装置110を装着したユーザ190Aの視界方向を特定する。プロセッサ10は、アプリケーションプログラムを実行し、アプリケーションプログラムに含まれる命令に基づいて、仮想空間2にオブジェクトを配置する。
ステップS7において、コントローラ160は、現実空間におけるユーザ190Aの操作を検出する。例えば、ある局面において、コントローラ160は、ユーザ190Aによってボタンが押下されたことを検出する。また、上述したようにHMDセンサ120またはコントローラ160自身が備えるセンサは、コントローラ160の位置および傾きを検出する。検出結果を示す信号は、HMDセンサ120またはコントローラ160からコンピュータ200に送られる。このようにして、コントローラ160に対するユーザ190Aによる入力操作の内容を示す操作情報とコントローラ160の状態(位置および傾き等)を特定するための状態情報とを含むコントローラ情報が、コンピュータ200に送られる。そして、プロセッサ10は、コントローラ情報取得モジュール233として、当該コントローラ情報を取得する。
ステップS8において、プロセッサ10は、コントローラ情報取得モジュール233およびチャット制御モジュール234として、サーバ150から、仮想空間2を共有する他のユーザのプレイヤ情報(音声データ、動き情報、およびコントローラ情報等)を取得する。
ステップS9において、プロセッサ10は、仮想オブジェクト制御モジュール232として、ユーザ190Aを含む各ユーザ190のプレイヤ情報に基づいて、各ユーザのアバターおよびプレイヤキャラクタの動作を制御する。
ステップS10において、プロセッサ10は、視界画像生成モジュール223として、ステップS9の処理結果に基づく視界画像を表示するための視界画像データを生成し、生成した視界画像データをHMD装置110に出力する。
ステップS11において、HMD装置110のモニタ112は、受信した視界画像データに基づいて視界画像を更新し、更新後の視界画像を表示する。
図11は、仮想空間2の一例を模式的に表す図である。図11に示されるように、仮想空間2は、ユーザ190Aに関連付けられたアバターA1(第1アバター)と、ユーザ190Aにより使用されるコントローラ160A(第1コントローラ)に対する入力操作に基づいて操作されるプレイヤキャラクタC1(第1キャラクタオブジェクト)と、ユーザ190Aとは異なるユーザ190B(第2ユーザ)に関連付けられたアバターA2(第2アバター)と、ユーザ190Bにより使用されるコントローラ160B(第2コントローラ)に対する入力操作に基づいて操作されるプレイヤキャラクタC2(第2キャラクタオブジェクト)と、ユーザ190Aに装着され、モニタ112(第1表示部)を備えるHMD装置110A(第1ヘッドマウントデバイス)に提供される視界画像M1を定義する仮想カメラ1A(第1仮想カメラ)と、ユーザ190Bに装着され、モニタ112(第2表示部)を備えるHMD装置110B(第2ヘッドマウントデバイス)に提供される視界画像M2を定義する仮想カメラ1B(第2仮想カメラ)とを含む。また、図11に示される例では、仮想空間2は、さらに、コントローラ160A,160Bに対応する仮想的なコントローラを表すコントローラオブジェクトVC1,VC2と、アバターA1,A2の仮想的な手を表す手オブジェクトVH1,VH2とを含む。
図11に示される例では、仮想空間2において、複数のユーザ190A,190Bが各自のプレイヤキャラクタC1,C2をゲームフィールドF上で闘わせる対戦ゲーム(ここでは、爆弾B1を投げ合うゲーム)が展開されている。仮想空間2では、ゲームに関連するプレイヤキャラクタC1,C2だけでなく、コントローラオブジェクトVC1,VC2を保持するアバターA1,A2が所定の位置に配置されている。これにより、仮想空間2において、各ユーザ190A,190BのアバターA1,A2が各プレイヤキャラクタC1,C2を操作しているシチュエーションが表現されている。また、仮想カメラ1A,1Bは、アバターA1,A2の視点に関連付けられている。これにより、ユーザ190A,190Bに対して、アバターA1,A2の1人称視点における視界画像M1,M2が提供される。
図12は、HMD装置110Aを介してユーザ190Aに提供される視界画像M1の一例を表す図である。図12に示されるように、ユーザ190Aは、視界画像M1を認識することによって、あたかも自分がアバターA1として仮想空間2に存在しているかのような仮想体験をすることができる。同様に、ユーザ190Bは、視界画像M2を認識することによって、あたかも自分がアバターA2として仮想空間2に存在しているかのような仮想体験をすることができる。
ここで、仮想空間2におけるコントローラオブジェクトVC1,VC2のデザインは、コントローラ160A,160Bの機種等に応じて決定されてもよい。例えば、プロセッサ10は、コントローラ160Aの機種を示す情報をコントローラ160Aから取得し、オブジェクト情報242として機種毎に予め用意されたコントローラオブジェクトの描画データに基づいて、コントローラオブジェクトVC1を描画してもよい。これにより、各ユーザ190A,190Bは、視界画像M1,M2に表示されるコントローラオブジェクトVC1,VC2のデザインに基づいて、他のユーザが利用するコントローラ160のタイプ(例えば両手持ちであるか片手持ちであるか)を把握することができる。
このような仮想空間2によれば、各ユーザ190A,190Bに対して、アバターA1,A2を介したチャットおよびマルチプレイゲームを提供することができる。また、この仮想空間2には、各ユーザ190A,190BのアバターA1,A2およびプレイヤキャラクタC1,C2の両方が存在する。このため、各ユーザ190A,190Bは、アバターA1,A2を介して互いの存在を認識しつつ、仮想空間2において共通のゲームを楽しむことができる。これにより、各ユーザ190A,190Bは、仮想空間2において、複数人で盛り上がっている感覚を容易に得ることができる。その結果、各ユーザ190A,190Bの仮想体験のエンタテイメント性を向上させることができる。
図13は、複数ユーザ190A,190Bに同一の仮想空間2を共有させるために、各HMDシステム100A,100Bおよびサーバ150によって実行される処理を表すシーケンス図である。なお、図13に示される処理は、図10におけるステップS7〜S9に示される処理と一部重複している。
ステップS21Aにおいて、HMDシステム100Aにおけるプロセッサ10は、コントローラ情報取得モジュール233として、コントローラ160Aについてのコントローラ情報を取得する。また、プロセッサ10は、チャット制御モジュール234として、ユーザ190Aの音声データを取得する。また、プロセッサ10は、HMDセンサ120および注視センサ140等によって検出された向きデータおよびアイトラッキングデータを含む動き情報を取得する。これにより、音声データ、コントローラ情報、および動き情報を含むプレイヤ情報が取得される。また、プレイヤ情報には、アバターA1(あるいはユーザ190A)を特定するための情報(ユーザID等)、およびアバターA1が存在する仮想空間2を特定するための情報(ルームID等)が含まれ得る。プロセッサ10は、チャット制御モジュール234として、上述のように取得されたプレイヤ情報を、ネットワーク19を介してサーバ150に送信する。
ステップS21Bにおいて、HMDシステム100Bのプロセッサ10は、ステップS21Aの処理と同様に、ユーザ190Bのプレイヤ情報を取得し、サーバ150に送信する。
ステップS22において、サーバ150は、複数のHMDシステム100(ここでは、HMDシステム100A,100B)のそれぞれから受信したプレイヤ情報を一旦記憶する。サーバ150は、各プレイヤ情報に含まれるユーザIDおよびルームID等に基づいて、共通の仮想空間2に関連付けられた全ユーザ(この例では、ユーザ190A,190B)のプレイヤ情報を統合する。そして、サーバ150は、予め定められたタイミングで、統合したプレイヤ情報を当該仮想空間2に関連付けられた全ユーザに送信する。これにより、同期処理が実行される。このような同期処理により、HMDシステム100A,100Bは、互いのプレイヤ情報をほぼ同じタイミングで共有することができる。
続いて、サーバ150から各HMDシステム100A,100Bに送信されたプレイヤ情報に基づいて、各HMDシステム100A,100Bは、ステップS23A,S23Bの処理を実行する。ステップS23Aの処理は、図10におけるステップS9の処理に相当する。
ステップS23Aにおいて、HMDシステム100Aにおけるプロセッサ10は、仮想オブジェクト制御モジュール232として、仮想空間2におけるアバターA1,A2およびプレイヤキャラクタC1,C2の動作を制御する。ステップS23Bの処理は、ステップS23Aの処理と同様である。
図14は、ステップS23Aの詳細な処理を示すフローチャートである。以下、図14を参照して、ステップS23Aの処理内容について説明する。この処理は、ユーザ190Aによる第1操作入力に基づいて仮想空間2内に定義されたゲームフィールド内で動作するプレイヤキャラクタC1、第1操作入力とは異なる操作データによって制御されるアバターA2、およびアバターA2に関連付けられゲームフィールド内で動作するプレイヤキャラクタC2を含む仮想空間における処理である。アバターA2およびプレイヤキャラクタC2は、ユーザ190Bにより操作されるものであるが、図示しないコンピュータにより操作制御されるものとしてもよい。
ステップS23Aでは、プロセッサ10は、ゲーム進行データに基づいてユーザのゲーム進行を有利または不利のさせるための調整を行う。ゲーム進行データとは、仮想空間において実行されるゲームにおけるアバターA1、A2、プレイヤキャラクタC1、C2のいずれかの動作に基づいて定められたデータである。図11の例においては、プレイヤキャラクタC1、C2同士が、ゲームフィールドFで対戦している。例えば、プレイヤキャラクタC1およびアバターA1は、プレイヤキャラクタC2またはアバターA2から、干渉(アクション)を受けることにより、ユーザ190Aのゲーム進行を有利または不利にさせるよう調整する。当然にその逆もあり得る。プロセッサ10は、ゲーム進行に応じて生ずるイベントに基づいた干渉により、ユーザ190Aのゲーム進行を有利または不利にさせるよう調整してもよい。
ステップS31において、プロセッサ10は、各ユーザ190Aおよび190Bのプレイヤ情報およびイベント情報を取得する。プレイヤ情報は、音声データ、動き情報、コントローラ情報である。コントローラ情報は、仮想オブジェクトに対する操作を示す操作情報を含む。コントローラ情報は、アバターA1、A2またはプレイヤキャラクタC1、C2が、仮想オブジェクトに対してどのような操作をしたかを示す。例えば、どのアバターまたはプレイヤキャラクタが、爆弾という仮想オブジェクトを、どこにまたは誰に向かって投げたかを示す情報である。
イベント情報は、仮想空間2内において、定期的に発生するイベントを示す。各ユーザ190および仮想空間2を管理するサーバ150は、仮想空間2におけるゲーム進行に基づいたイベントを発生させる。例えば、時間ごとまたは予め定められたた出現条件を満たした場合に、後述するルーレットオブジェクトを仮想空間内に出現させるなどである。サーバ150は、ルーレットオブジェクトを出現させる前にそのルーレットの目を決定する。サーバ150は、イベント情報として、ルーレットオブジェクト出現というイベントおよびそのルーレットの目を各ユーザ190に送信する。イベント情報は、その出現条件を満たさない場合にはサーバ150から送信されない。その場合、各HMDシステム100は、イベント情報を取得しない。
ステップS32において、プロセッサ10は、プレイヤ情報およびイベント情報に基づいて仮想オブジェクトを生成する。例えば、アバターA2またはプレイヤキャラクタC2が、爆弾をアバターA1またはプレイヤキャラクタC1に投げた場合には、プロセッサ10は、そのプレイヤ情報に基づいて、爆弾という仮想オブジェクトを生成する。状況に応じて爆風を示す仮想オブジェクトや、煙幕を示す仮想オブジェクトを生成する。
ステップS33において、プロセッサ10は、取得したプレイヤ情報に含まれている動き情報、コントローラ情報、および操作情報に基づいて、アバターA1、A2、プレイヤキャラクタC1、C2および仮想オブジェクトの動作を制御する。アバターA1およびプレイヤキャラクタC1に対するプレイヤ情報は、ステップS31においてサーバ150から取得したものでもよいし、ステップS21Aにおいて取得したものでもよい。
例えば、ユーザ190BのアバターA2またはプレイヤキャラクタC2が、プレイヤキャラクタC1またはアバターA1に対して爆弾を投げた場合、ユーザ190AのHMDシステム100Aは、その動作を示す情報を含んだプレイヤ情報を取得する。プロセッサ10は、爆弾が投げつけられたというプレイヤ情報に基づいて、ユーザ190Aのゲーム進行を有利または不利にさせるよう調整する。爆弾が投げつけられた場合には、プロセッサ10は、コリジョンエリアに基づく判定処理を行う。プロセッサ10は、判定処理に基づいてユーザ190Aにとってゲーム進行を不利にさせるための調整処理を行う。例えば、プロセッサ10は、爆弾が投げつけられた対象であるアバターA1またはプレイヤキャラクタC1に対する操作を制限する制御を行う。操作を制限する制御は、爆弾が投げつけられた対象であるアバターA1またはプレイヤキャラクタC1の動作を遅くする制御を含む。
プロセッサ10は、他の操作を制限する制御として、ユーザ190Aの視界を制限する制御を行う。例えば、アバターA1またはプレイヤキャラクタC1が、アバターA2またはプレイヤキャラクタC2のプレイヤ情報に基づいて煙幕弾が投げつけられた場合を想定する。その場合、プロセッサ10は、爆弾に基づいて、煙幕という仮想オブジェクトをアバターA1の周囲に生成する。プロセッサ10は、煙幕という仮想オブジェクトによりユーザ190Aの視界を制限する制御を行うことができる。
ステップS34において、プロセッサ10は、ステップS31においてイベント情報を取得した場合には、そのイベント情報に基づいて、各アバターA、プレイヤキャラクタCおよび仮想オブジェクトの動作を制御する。例えば、イベント情報は、上述したとおり、ゲーム進行に従って定められた出現条件に基づいたイベントである。出現条件は、例えば、アバターA1、A2、プレイヤキャラクタC1、C2が、規定の動作を行った場合や、規定の時間が経過した場合などを含む。イベント情報は、アバターA1、A2、プレイヤキャラクタC1、C2に対して、ゲーム進行を有利または不利にさせる状態にすることを含んだものである。例えば、イベント情報は、ルーレットオブジェクトの出現およびそのルーレットの目を含む。イベント情報は、ルーレットの目に従って各アバターA1、A2、プレイヤキャラクタC1、C2に対してゲーム進行を有利または不利にさせる。プロセッサ10は、そのイベント情報に基づいてルーレットオブジェクトを生成し、ルーレットを回す制御を行う。プロセッサ10は、イベント情報で指定されたルーレットの目を出すように、ルーレットオブジェクトを制御する。
プロセッサ10は、ルーレットの目に応じてユーザ190(アバターA)を選択し、選択されたアバターAに対する制御を行う。プロセッサ10は、アバターA1を選択した場合には、そのアバターA1に対してロケットを装着させ、上方に射出させる制御を行う。その結果、ユーザ190AのアバターA1は、身動きがとれないという状態となる。結果的にユーザ190Aは操作をすることができず、操作の制限を受けることになる。
その他、イベントとしては様々なものがあるが、仮想空間におけるアバターA1またはA2に対してゲーム進行を有利または不利にさせるイベントであればよい。
このようにして、アバターA1またはプレイヤキャラクタC1に対する、アバターA2またはプレイヤキャラクタC2の動作またはゲーム進行上発生するイベントに基づいて、アバターA1またはプレイヤキャラクタC1はゲーム進行を不利にする処理が行われる。上述のステップS33およびS34の順番は逆でもよいし、または同時並行的に行われてもよい。
上述説明ではゲーム進行を不利に調整する処理を説明したが、ゲーム進行を有利に調整する処理も当然に行うことも可能である。アバターA2が、アバターA1またはプレイヤキャラクタC1に対して、アバターA1の動きを早くするためのアイテムを投げつけることで、プロセッサ10は、ユーザ190Aにとって有利になるよう調整することもできる。アイテムとしては、瞬間移動させるなどのアイテムや、体力回復のためのアイテムや煙幕を取り払うためのアイテムが考えられる。このような有利な調整処理はチーム戦でゲームを行うときに、盛り上げる要素になりうる。
アバターA1またはプレイヤキャラクタC1が、アバターA2またはプレイヤキャラクタC2に対して、爆弾を投げるなどの動作を行う。ユーザ190Bにとって操作の制限等を受ける場合には、その制限は、ユーザ190Aにとって有利な調整処理を行うことに相当する。
ユーザ190Aが、ゲーム進行を有利または不利にさせる調整処理に基づいた有利な状態または不利な状態を、以下の操作やアイテムを使用することで、解消することができる。
例えば、すでに、ステップS31〜S34の処理に従って、ユーザ190Aが煙幕などで視界が制限されている状態となっている場合を想定する。ユーザ190Aは、アバターA1を操作して、目の周りにある煙幕を振り払う操作をする。ユーザ190Aは、煙幕を取り除くことができる。プロセッサ10は、アバターA1のプレイヤキャラクタ情報に基づいて、煙幕を取り除く動作を行ったと判断する場合には、その煙幕を示す仮想オブジェクトを除去する制御を行う。これによって、ユーザ190Aの不利な状態を解消することができる。これは、ユーザ190B(アバターA2)においても同様である。
アバターA1が、煙幕用のメガネやゴーグルをもっている場合には、そのメガネやゴーグルを装着することで、煙幕がある中でも視界を確保することができる。プロセッサ10は、アバターA1のプレイヤ情報として煙幕用のメガネを装着するとの情報を取得した場合で、仮想オブジェクトとして煙幕がアバターA1の周囲にあった場合には、その煙幕を示す仮想オブジェクトを除去する。プロセッサ10は、煙幕を透明にする制御を行うってもよい。これによって、視界の制限を受けることがない。
すでに視界の制限を受けないアイテム等をアバターA1が有している場合には、アバターA2からの爆弾による煙幕の影響を受けないようにすることもできる。ステップS32およびS33において、プロセッサ10は、プレイヤ情報に基づいて仮想オブジェクトの生成およびその制御を行う。プロセッサ10は、アバターA1がゲーム進行の不利を受けないアイテムを有している、またはそれを装着している場合、その不利を受けないための制御を行う。
プロセッサ10は、例えばメガネを装着しているなどの条件を満たしている場合には、視界制限を受けないような仮想オブジェクト(煙幕が半透明など)を生成する。プロセッサ10は、視界制限を受けないように(煙幕が目の周りにはない)仮想オブジェクトを制御してもよい。
本明細書に開示された主題は、例えば以下のような項目として示される。
(項目1)
表示部(モニタ112)を備えるヘッドマウントデバイス(HMD装置110A)を介して第1ユーザ(ユーザ190A)に仮想空間2を提供するためにコンピュータ(コンピュータ200)により実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバター(アバターA1)、前記第1ユーザによる第1操作入力に基づいて前記仮想空間内に定義されたフィールド内で動作する第1キャラクタ(プレイヤキャラクタC1)、前記第1操作入力とは異なる操作データによって制御される第2アバター(アバターA2)、および前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタ(プレイヤキャラクタC2)を含む仮想空間を規定する仮想空間データを特定するステップと、
前記仮想空間において実行されるゲームにおける前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタのいずれかの動作に基づく前記のゲームの進行を示すゲーム進行データ(プレイヤ情報またはイベント情報)に基づいて、前記第1ユーザのゲーム進行を有利または不利にさせるよう調整するステップと、
前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタの操作結果に基づいて、前記第1アバターから視界画像を生成するステップと、を備える情報処理方法。
表示部(モニタ112)を備えるヘッドマウントデバイス(HMD装置110A)を介して第1ユーザ(ユーザ190A)に仮想空間2を提供するためにコンピュータ(コンピュータ200)により実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバター(アバターA1)、前記第1ユーザによる第1操作入力に基づいて前記仮想空間内に定義されたフィールド内で動作する第1キャラクタ(プレイヤキャラクタC1)、前記第1操作入力とは異なる操作データによって制御される第2アバター(アバターA2)、および前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタ(プレイヤキャラクタC2)を含む仮想空間を規定する仮想空間データを特定するステップと、
前記仮想空間において実行されるゲームにおける前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタのいずれかの動作に基づく前記のゲームの進行を示すゲーム進行データ(プレイヤ情報またはイベント情報)に基づいて、前記第1ユーザのゲーム進行を有利または不利にさせるよう調整するステップと、
前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタの操作結果に基づいて、前記第1アバターから視界画像を生成するステップと、を備える情報処理方法。
本項目の情報処理方法によれば、アバターと当該アバターが操作しているかのごとく表現されているキャラクタとを用いた仮想空間内で行われているゲームに対してエンタテイメント性を向上させることができる。
(項目2)
前記動作データは、前記第1アバターまたは前記第1キャラクタと、前記第2アバターまたは前記第2キャラクタとの間で行われる動作を含む、項目1に記載の情報処理方法。
前記動作データは、前記第1アバターまたは前記第1キャラクタと、前記第2アバターまたは前記第2キャラクタとの間で行われる動作を含む、項目1に記載の情報処理方法。
本項目の情報処理方法によれば、ユーザの動作に基づいてゲーム進行を有利または不利にさせる。したがって、ユーザに対しては、自分のゲーム進行を有利にさせ、他のユーザのゲーム進行を不利にさせるために積極的にゲームをプレイすることが期待され、複数人でのゲームを大いに盛り上げることができ、ゲームのエンタテイメント性をさらに向上させる。
(項目3)
前記調整するステップは、前記第1アバター若しくは前記第1キャラクタに対する前記第1ユーザの操作性を有利または不利にさせる処理を含む、項目1または2に記載の情報処理方法。
前記調整するステップは、前記第1アバター若しくは前記第1キャラクタに対する前記第1ユーザの操作性を有利または不利にさせる処理を含む、項目1または2に記載の情報処理方法。
本項目の情報処理方法によれば、ユーザの操作性を有利または不利にさせることで、ゲームのエンタテイメント性を向上させることができる。すなわち、ゲームの操作性はゲームを進行する上で重要な要素であり、その制限はユーザに対してゲームのエンタテイメント性を向上させることになる。
(項目4)
前記調整するステップは、前記第1ユーザが、前記第1アバター若しくは前記第1キャラクタに対する操作を制限する処理を含む、項目3に記載の情報処理方法。
前記調整するステップは、前記第1ユーザが、前記第1アバター若しくは前記第1キャラクタに対する操作を制限する処理を含む、項目3に記載の情報処理方法。
本項目の情報処理方法によれば、ユーザの操作を制限することで、そのユーザに対してゲームのエンタテイメント性を向上させることになる。
(項目5)
前記調整するステップは、前記第1ユーザにおける前記第1アバターからの視界を制限する処理を含む、項目3または4に記載の情報処理方法。
前記調整するステップは、前記第1ユーザにおける前記第1アバターからの視界を制限する処理を含む、項目3または4に記載の情報処理方法。
本項目の情報処理方法によれば、操作性を有利または不利にさせる処理として、視界を制限することで、ユーザするゲームエンタテイメント性を向上させることができる。ユーザはゲームをプレイする上では、視界は重要な要素であり、それに対して制限をかけることはゲームのエンタテイメント性を向上させるものである。
(項目6)
前記調整するステップによる調整に基づいた前記第1アバターまたは前記第1キャラクタの状態を解消するための条件を満たす場合には、当該状態を解消する、項目1〜5のいずれか一項に記載の情報処理方法。
前記調整するステップによる調整に基づいた前記第1アバターまたは前記第1キャラクタの状態を解消するための条件を満たす場合には、当該状態を解消する、項目1〜5のいずれか一項に記載の情報処理方法。
本項目の情報処理方法によれば、ゲーム進行を有利または不利にさせる処理に基づいたアバターまたはキャラクタのゲーム状態を、その解消条件に従って解消することで、ゲームのエンタテイメント性を向上させることができる。
(項目7)
項目1〜6のいずれか一項に記載の情報処理方法をコンピュータに実行させる、プログラム。
項目1〜6のいずれか一項に記載の情報処理方法をコンピュータに実行させる、プログラム。
(項目8)
少なくともメモリ(メモリモジュール240)と、前記メモリに結合されたプロセッサ(プロセッサ10)とを備え、前記プロセッサの制御により項目1〜6のいずれか一項に記載の情報処理方法を実行する、装置。
少なくともメモリ(メモリモジュール240)と、前記メモリに結合されたプロセッサ(プロセッサ10)とを備え、前記プロセッサの制御により項目1〜6のいずれか一項に記載の情報処理方法を実行する、装置。
Claims (8)
- 表示部を備えるヘッドマウントデバイスを介して第1ユーザに仮想空間を提供するためにコンピュータにより実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバター、前記第1ユーザによる第1操作入力に基づいて前記仮想空間内に定義されたフィールド内で動作する第1キャラクタ、前記第1操作入力とは異なる操作データによって制御される第2アバター、および前記第2アバターに関連付けられ前記フィールド内で動作する第2キャラクタを含む仮想空間を規定する仮想空間データを特定するステップと、
前記仮想空間において実行されるゲームにおける前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタのいずれかの動作に基づく前記のゲームの進行を示すゲーム進行データに基づいて、前記第1ユーザのゲーム進行を有利または不利にさせるよう調整するステップと、
前記第1アバター、前記第1キャラクタ、前記第2アバター、および前記第2キャラクタの操作結果に基づいて、前記第1アバターから視界画像を生成するステップと、
を備える情報処理方法。 - 前記ゲーム進行データは、前記第1アバターまたは前記第1キャラクタと、前記第2アバターまたは前記第2キャラクタとの間で行われる動作データを含む、請求項1に記載の情報処理方法。
- 前記調整するステップは、前記第1アバター若しくは前記第1キャラクタに対する前記第1ユーザの操作性を有利または不利にさせる処理を含む、請求項1または2に記載の情報処理方法。
- 前記調整するステップは、前記第1ユーザが、前記第1アバター若しくは前記第1キャラクタに対する操作を制限する処理を含む、請求項3に記載の情報処理方法。
- 前記調整するステップは、前記第1ユーザにおける前記第1アバターからの視界を制限する処理を含む、請求項3または4に記載の情報処理方法。
- 前記調整するステップによる調整に基づいた前記第1アバターまたは前記第1キャラクタの状態を解消するための条件を満たす場合には、当該状態を解消する、請求項1〜5のいずれか一項に記載の情報処理方法。
- 請求項1〜6のいずれか一項に記載の情報処理方法をコンピュータに実行させる、プログラム。
- 少なくともメモリと、前記メモリに結合されたプロセッサとを備え、前記プロセッサの制御により請求項1〜6のいずれか一項に記載の情報処理方法を実行する、装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019071592A JP2019166325A (ja) | 2019-04-03 | 2019-04-03 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019071592A JP2019166325A (ja) | 2019-04-03 | 2019-04-03 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017156909A Division JP6545761B2 (ja) | 2017-08-15 | 2017-08-15 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019166325A true JP2019166325A (ja) | 2019-10-03 |
Family
ID=68105853
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019071592A Withdrawn JP2019166325A (ja) | 2019-04-03 | 2019-04-03 | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019166325A (ja) |
-
2019
- 2019-04-03 JP JP2019071592A patent/JP2019166325A/ja not_active Withdrawn
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10936149B2 (en) | Information processing method and apparatus for executing the information processing method | |
| US20180357817A1 (en) | Information processing method, program, and computer | |
| JP2018124666A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6201028B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP2022020686A (ja) | 情報処理方法、プログラム、およびコンピュータ | |
| JP6248219B1 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6479933B1 (ja) | プログラム、情報処理装置、および方法 | |
| JP2018147465A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP2019168962A (ja) | プログラム、情報処理装置、及び情報処理方法 | |
| JP2020161168A (ja) | プログラム、情報処理方法及び情報処理装置 | |
| JP2018124981A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6263292B1 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6513241B1 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
| JP2019155115A (ja) | プログラム、情報処理装置、及び情報処理方法 | |
| JP2019048045A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP2019087262A (ja) | プログラム、情報処理装置、および方法 | |
| JP7030669B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6419268B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP7386948B2 (ja) | プログラム、方法および情報処理装置 | |
| JP7192151B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
| JP6392953B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6330072B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP6441517B1 (ja) | プログラム、情報処理装置、および方法 | |
| JP6946084B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP2018143752A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20210202 |