JP2018011193A - 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム - Google Patents
情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム Download PDFInfo
- Publication number
- JP2018011193A JP2018011193A JP2016138833A JP2016138833A JP2018011193A JP 2018011193 A JP2018011193 A JP 2018011193A JP 2016138833 A JP2016138833 A JP 2016138833A JP 2016138833 A JP2016138833 A JP 2016138833A JP 2018011193 A JP2018011193 A JP 2018011193A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- virtual space
- user
- information processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させる。【解決手段】情報処理方法は、仮想カメラ300と、マイク118に入力される音声を発生する音源オブジェクトMCと、集音オブジェクトHCとを含む仮想空間200を示す仮想空間データを生成するステップと、HMD110の動きに応じて、仮想カメラ300の視野CVを決定するステップと、仮想カメラ300の視野CVと仮想空間データに基づいて、視野画像データを生成するステップと、視野画像データに基づいて、HMD110に視野画像Vを表示させるステップと、マイク118に入力された音声を示す音声データを取得するステップと、前記音声データを加工するステップと、マイク118に音声が入力されてから所定期間経過後に、前記加工された音声データに対応する音声をヘッドフォン116に出力させるステップとを含む。【選択図】図11
Description
本開示は、情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラムに関する。
特許文献1には、ゲームプログラムの実行中に、ゲーム空間内の視点となる移動体が移動した場合又は音源が移動した場合に、移動体と音源との間の相対位置関係を算出し、算出された相対位置関係に基づいた定位パラメータにより音源から出力される音声を加工する処理(音像定位処理)が開示されている。
しかしながら、特許文献1では、仮想空間(VR(Virtual Reality)空間ともいう。)内において、音声入力部(例えば、マイク)に入力された音声を利用したユーザ間のコミュニケーション(換言すれば、自己が操作する自己アバターオブジェクトと他のユーザが操作する他のアバターオブジェクトとの間の音声コミュニケーション)を実現する手段については何ら開示されていない。
本開示は、仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させることが可能な情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
本開示が示す一態様によれば、ヘッドマウントディスプレイと、音声入力部と、音声出力部とを有するユーザ端末を備えたシステムにおける情報処理方法が提供される。
当該情報処理方法は、
(a)仮想カメラと、前記音声入力部に入力される音声を発生する音源オブジェクトと、集音オブジェクトとを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記音声入力部に入力された音声を示す音声データを取得するステップと、
(f)前記音声データを加工するステップと、
(g)前記音声入力部に前記音声が入力されてから所定期間経過後に、前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む。
当該情報処理方法は、
(a)仮想カメラと、前記音声入力部に入力される音声を発生する音源オブジェクトと、集音オブジェクトとを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記音声入力部に入力された音声を示す音声データを取得するステップと、
(f)前記音声データを加工するステップと、
(g)前記音声入力部に前記音声が入力されてから所定期間経過後に、前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む。
本開示によれば、仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させることが可能な情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラムを提供することができる。
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイと、音声入力部と、音声出力部とを有するユーザ端末を備えたシステムにおける情報処理方法であって、
(a)仮想カメラと、前記音声入力部に入力される音声を発生する音源オブジェクトと、集音オブジェクトとを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記音声入力部に入力された音声を示す音声データを取得するステップと、
(f)前記音声データを加工するステップと、
(g)前記音声入力部に前記音声が入力されてから所定期間経過後に、前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む、情報処理方法。
本開示が示す実施形態の概要を説明する。
(1)ヘッドマウントディスプレイと、音声入力部と、音声出力部とを有するユーザ端末を備えたシステムにおける情報処理方法であって、
(a)仮想カメラと、前記音声入力部に入力される音声を発生する音源オブジェクトと、集音オブジェクトとを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記音声入力部に入力された音声を示す音声データを取得するステップと、
(f)前記音声データを加工するステップと、
(g)前記音声入力部に前記音声が入力されてから所定期間経過後に、前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む、情報処理方法。
上記方法によれば、音声入力部に音声が入力されてから所定期間経過後に、加工された音声データに対応する音声が音声出力部に出力される。このように、例えば、ユーザ端末のユーザ(以下、単に第1ユーザという。)が、仮想空間上に配置された味方アバターオブジェクトを操作するユーザ(以下、単に第2ユーザという。)と音声を通じてコミュニケーションを図っているときに、第1ユーザの音声が音声出力部から所定期間経過後に出力される。この結果、第1ユーザは、音声出力部から出力された自身の音声によって、第2ユーザとの音声コミュニケーションを妨害される。従って、仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させることが可能な情報処理方法を提供することができる。
(2)前記仮想空間は、敵オブジェクトをさらに含み、
前記方法は、
(h)前記敵オブジェクトが前記ユーザ端末に関連付けられたアバターオブジェクトに所定の作用を及ぼしたかどうかを判定するステップをさらに含み、
前記敵オブジェクトが前記アバターオブジェクトに前記所定の作用を及ぼしたと判定された場合に、前記ステップ(f)及び前記ステップ(g)が実行される、項目(1)に記載の情報処理方法。
前記方法は、
(h)前記敵オブジェクトが前記ユーザ端末に関連付けられたアバターオブジェクトに所定の作用を及ぼしたかどうかを判定するステップをさらに含み、
前記敵オブジェクトが前記アバターオブジェクトに前記所定の作用を及ぼしたと判定された場合に、前記ステップ(f)及び前記ステップ(g)が実行される、項目(1)に記載の情報処理方法。
上記方法によれば、敵オブジェクトがアバターオブジェクトに所定の作用を及ぼしたときに、音声データが加工されて、音声入力部に音声が入力されてから所定期間経過後に、加工された音声データに対応する音声が音声出力部に出力される。このように、例えば、敵オブジェクトがアバターオブジェクトに所定の作用を及ぼしたときに(例えば、敵オブジェクトがアバターオブジェクトに攻撃を仕掛けたときに)、第1ユーザは、音声出力部から出力された自身の音声によって、第2ユーザとの音声コミュニケーションを妨害される。このように、仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させることが可能な情報処理方法を提供することができる。
(3)前記仮想空間は、
前記仮想空間内を伝搬する音声を反射する反射体として規定されると共に、前記音源オブジェクトと前記集音器オブジェクトとを囲うように配置された音反射オブジェクトをさらに含み、
前記ステップ(f)では、前記音反射オブジェクトの特性に基づいて、前記音声データが加工される、項目(1)又は(2)に記載の情報処理方法。
前記仮想空間内を伝搬する音声を反射する反射体として規定されると共に、前記音源オブジェクトと前記集音器オブジェクトとを囲うように配置された音反射オブジェクトをさらに含み、
前記ステップ(f)では、前記音反射オブジェクトの特性に基づいて、前記音声データが加工される、項目(1)又は(2)に記載の情報処理方法。
上記方法によれば、仮想空間内に配置された音反射オブジェクトの特性に基づいて、音声データが加工されて、当該加工された音声データに対応する音声が音声出力部に出力される。このように、音反射オブジェクトによって規定された閉空間を多重反射した反響音を音声出力部に出力することができる。
(4)前記音反射オブジェクトの反射率は、第1の値に設定されていると共に、前記音反射オブジェクトの透過率は、第2の値に設定されている、項目(3)に記載の情報処理方法。
上記方法によれば、音反射オブジェクトの反射率が第1の値に設定されていると共に、音反射オブジェクトの透過率が第2の値に設定されている。このため、第1ユーザは、自身の音声により、第2ユーザとの音声コミュニケーションを妨害される。一方、第2ユーザは、第1ユーザが発した音声を聞くことができる共に、第1ユーザは、第2ユーザが発した音声を聞くことができる。このように、仮想空間のエンターテイメント性を向上させることができる。さらに、第1ユーザは、他の音源オブジェクトが発する音声を聞くことができるので、仮想空間への第1ユーザの没入感(仮想空間に対する臨場感)が過度に損なわれることが防止される。
(5)前記音反射オブジェクトの中心位置は、前記音源オブジェクト及び前記集音器オブジェクトのうちの少なくとも一つの中心位置と一致しており、
前記音反射オブジェクトは、所定の直径を有する球状に形成され、
前記ステップ(f)では、前記音反射オブジェクトの反射率と前記音反射オブジェクトの直径に基づいて、前記音声データが加工される、項目(4)に記載の情報処理方法。
前記音反射オブジェクトは、所定の直径を有する球状に形成され、
前記ステップ(f)では、前記音反射オブジェクトの反射率と前記音反射オブジェクトの直径に基づいて、前記音声データが加工される、項目(4)に記載の情報処理方法。
上記方法によれば、音反射オブジェクトの反射率と音反射オブジェクトの直径に基づいて、音声データが加工され、当該加工された音声データに対応する音声が音声出力部に出力される。このように、音反射オブジェクトによって規定された閉空間を反射した反響音を音声出力部に出力することができる。
(6)前記音反射オブジェクトは、透明であって、前記視野画像内に表示されない、項目(3)から(5)のうちいずれか一項に記載の情報処理方法。
上記方法によれば、音反射オブジェクトが視野画像内に表示されないので、仮想空間への第1ユーザの没入感(仮想空間に対する臨場感)が損なわれることを防止することができる。
(7)項目(1)から(6)のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
上記によれば、仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させることが可能なプログラムを提供することができる。
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
以下、本開示が示す実施形態について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
本開示の実施形態(以下、単に本実施形態という。)に係る情報処理方法を実現するゲームシステム100の構成について図1を参照して説明する。図1は、ゲームシステム100の構成を示す概略図である。図1に示すように、ゲームシステム100は、ユーザXが操作するヘッドマウントディスプレイ(以下、単にHMDという。)システム1A(第1ユーザ端末の一例)と、ユーザYが操作するHMDシステム1B(第2ユーザ端末の一例)と、ユーザZが操作するHMDシステム1C(第3ユーザ端末の一例)と、HMDシステム1A〜1Cを同期制御するゲームサーバ2を備える。HMDシステム1A,1B,1Cとゲームサーバ2は、インターネット等の通信ネットワーク3を介して互いに通信可能に接続されている。尚、本実施形態では、HMDシステム1A〜1Cとゲームサーバ2とからなるクライアントサーバシステムが構築されているが、ゲームサーバ2を設けずに、HMDシステム1AとHMDシステム1BとHMDシステム1Cが相互に直接通信(P2P通信)を行ってもよい。また、説明の便宜上、HMDシステム1A,1B,1Cを単にHMDシステム1という場合がある。また、HMDシステム1A,1B,1Cは、同一の構成を備えているものとする。
次に、図2を参照してHMDシステム1の構成について説明する。図2は、HMDシステム1を示す概略図である。図2に示すように、HMDシステム1は、ユーザUの頭部に装着されたHMD110と、ユーザUの両耳に装着されたヘッドフォン116(音声出力部の一例)と、ユーザUの口の周辺に位置するマイク118(音声入力部の一例)と、位置センサ130と、外部コントローラ320と、制御装置120とを備える。
HMD110は、表示部112と、HMDセンサ114と、注視センサ140とを備えている。表示部112は、HMD110を装着したユーザUの視界(視野)を完全に覆うように構成された非透過型の表示装置を備えている。これにより、ユーザUは、表示部112に表示された視野画像のみを見ることで仮想空間に没入することができる。尚、表示部112は、ユーザUの左目に画像を提供するように構成された左目用の表示部とユーザUの右目に画像を提供するように構成された右目用の表示部から構成されてもよい。
HMDセンサ114は、HMD110の表示部112の近傍に搭載される。HMDセンサ114は、地磁気センサ、加速度センサ、傾きセンサ(角速度センサやジャイロセンサ等)のうちの少なくとも1つを含み、ユーザUの頭部に装着されたHMD110の各種動きを検出することができる。
注視センサ140は、ユーザUの視線方向を検出するアイトラッキング機能を有する。
注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。
注視センサ140は、例えば、右目用注視センサと、左目用注視センサを備えてもよい。右目用注視センサは、ユーザUの右目に例えば赤外光を照射して、右目(特に、角膜や虹彩)から反射された反射光を検出することで、右目の眼球の回転角に関する情報を取得してもよい。一方、左目用注視センサは、ユーザUの左目に例えば赤外光を照射して、左目(特に、角膜や虹彩)から反射された反射光を検出することで、左目の眼球の回転角に関する情報を取得してもよい。
ヘッドフォン116は、ユーザUの左耳と右耳にそれぞれ装着されている。ヘッドフォン116は、制御装置120から音声データ(電気信号)を受信し、当該受信した音声データに基づいて音声を出力するように構成されている。ヘッドフォン116の右耳用のスピーカに出力される音声は、ヘッドフォン116の左耳用のスピーカに出力される音声と異なってもよい。例えば、制御装置120は、頭部伝達関数に基づいて、右耳用スピーカに入力される音声データと、左耳用スピーカに入力される音声データを生成し、当該異なる2つの音声データをヘッドフォン116の左耳用スピーカと右耳用スピーカのそれぞれに出力してもよい。尚、音声出力部の他の一例として、独立した2つの据置型スピーカやイヤホンを設けてもよい。
マイク118は、ユーザUから発声された音声を収集し、当該収集された音声に基づいて音声データ(電気信号)を生成するように構成されている。さらに、マイク118は、音声データを制御装置120に送信するように構成されている。マイク118は、音声データをAD(Analog−to―Digital)変換する機能を有してもよい。また、マイク118は、ヘッドフォン116に物理的に接続されてもよい。制御部121は、受信した音声データを加工し、加工された音声データを通信ネットワーク3を介して他のHMDシステムに送信してもよい。
位置センサ130は、例えば、ポジション・トラッキング・カメラにより構成され、HMD110と外部コントローラ320の位置を検出するように構成されている。位置センサ130は、制御装置120に無線又は有線により通信可能に接続されており、HMD110に設けられた図示しない複数の検知点の位置、傾き又は発光強度に関する情報を検出するように構成されている。さらに、位置センサ130は、外部コントローラ320に設けられた図示しない複数の検知点の位置、傾き及び/又は発光強度に関する情報を検出するように構成されている。検知点は、例えば、赤外線や可視光を放射する発光部である。また、位置センサ130は、赤外線センサや複数の光学カメラを含んでもよい。
外部コントローラ320は、例えば、仮想空間内に表示される手指オブジェクトの動作を制御するために使用される。外部コントローラ320は、ユーザUが右手に持って使用する右手用外部コントローラと、ユーザUが左手に持って使用する左手用外部コントローラを有してもよい。右手用外部コントローラは、ユーザUの右手の位置や右手の手指の動きを検出する装置である。左手用外部コントローラは、ユーザUの左手の位置や左手の手指の動きを検出する装置である。外部コントローラ320は、複数の操作ボタンと、複数の検知点と、センサと、トランシーバとを備えてもよい。例えば、外部コントローラ320の操作ボタンがユーザUに操作されることで、仮想空間内にメニューオブジェクトが表示されてもよい。さらに、外部コントローラ320の操作ボタンがユーザUに操作されることで、仮想空間上におけるユーザUの視野が変更されてもよい(つまり、視野画像が変更されてもよい)。この場合、外部コントローラ320から出力される操作信号に基づいて、制御装置120は、仮想カメラを所定の位置に移動させてもよい。
制御装置120は、位置センサ130から取得された情報に基づいて、HMD110の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間における仮想カメラの位置と、現実空間におけるHMD110を装着したユーザUの位置を正確に対応付けることができる。さらに、制御装置120は、位置センサ130から取得された情報に基づいて、外部コントローラ320の位置情報を取得し、当該取得された位置情報に基づいて、仮想空間内に表示される手指オブジェクトの位置と現実空間における外部コントローラ320とHMD110との間の相対関係位置を正確に対応付けることができる。
また、制御装置120は、注視センサ140から送信された情報に基づいて、ユーザUの右目の視線と左目の視線をそれぞれ特定し、当該右目の視線と当該左目の視線の交点である注視点を特定することができる。さらに、制御装置120は、特定された注視点に基づいて、ユーザUの視線方向を特定することができる。ここで、ユーザUの視線方向は、ユーザUの両目の視線方向であって、ユーザUの右目と左目を結ぶ線分の中点と注視点を通る直線の方向に一致する。
次に、図3を参照して、HMD110の位置や傾きに関する情報を取得する方法について説明する。図3は、HMD110を装着したユーザUの頭部を示す図である。HMD110を装着したユーザUの頭部の動きに連動したHMD110の位置や傾きに関する情報は、位置センサ130及び/又はHMD110に搭載されたHMDセンサ114により検出可能である。図2に示すように、HMD110を装着したユーザUの頭部を中心として、3次元座標(uvw座標)が規定される。ユーザUが直立する垂直方向をv軸として規定し、v軸と直交しHMD110の中心を通る方向をw軸として規定し、v軸およびw軸と直交する方向をu軸として規定する。位置センサ130及び/又はHMDセンサ114は、各uvw軸回りの角度(すなわち、v軸を中心とする回転を示すヨー角、u軸を中心とした回転を示すピッチ角、w軸を中心とした回転を示すロール角で決定される傾き)を検出する。制御装置120は、検出された各uvw軸回りの角度変化に基づいて、仮想カメラの視軸を制御するための角度情報を決定する。
次に、図4を参照することで、制御装置120のハードウェア構成について説明する。図4は、制御装置120のハードウェア構成を示す図である。図4に示すように、制御装置120は、制御部121と、記憶部123と、I/O(入出力)インターフェース124と、通信インターフェース125と、バス126とを備える。制御部121と、記憶部123と、I/Oインターフェース124と、通信インターフェース125は、バス126を介して互いに通信可能に接続されている。
制御装置120は、HMD110とは別体に、パーソナルコンピュータ、タブレット又はウェアラブルデバイスとして構成されてもよいし、HMD110に内蔵されていてもよい。また、制御装置120の一部の機能がHMD110に搭載されると共に、制御装置120の残りの機能がHMD110とは別体の他の装置に搭載されてもよい。
制御部121は、メモリとプロセッサを備えている。メモリは、例えば、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)及び/又はGPU(Graphics Processing Unit)であって、ROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。
特に、プロセッサが本実施形態に係る情報処理方法をコンピュータに実行させるためのプログラム(後述する)をRAM上に展開し、RAMとの協働で当該プログラムを実行することで、制御部121は、制御装置120の各種動作を制御してもよい。制御部121は、メモリや記憶部123に格納された所定のアプリケーションプログラム(ゲームプログラム)を実行することで、HMD110の表示部112に仮想空間(視野画像)を表示する。これにより、ユーザUは、表示部112に表示された仮想空間に没入することができる。
記憶部(ストレージ)123は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、USBフラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。記憶部123は、本実施形態に係る情報処理方法をコンピュータに実行させるプログラムを格納してもよい。また、ユーザUの認証プログラムや各種画像やオブジェクトに関するデータを含むゲームプログラム等が格納されてもよい。さらに、記憶部123には、各種データを管理するためのテーブルを含むデータベースが構築されてもよい。
I/Oインターフェース124は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とをそれぞれ制御装置120に通信可能に接続するように構成されており、例えば、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High―Definition Multimedia Interface)端子等により構成されている。尚、制御装置120は、位置センサ130と、HMD110と、外部コントローラ320と、ヘッドフォン116と、マイク118とのそれぞれと無線接続されていてもよい。
通信インターフェース125は、制御装置120をLAN(Local Area Network)、WAN(Wide Area Network)又はインターネット等の通信ネットワーク3に接続させるように構成されている。通信インターフェース125は、通信ネットワーク3を介してゲームサーバ2等の外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んでおり、通信ネットワーク3を介して通信するための通信規格に適合するように構成されている。
次に、図5から図8を参照することで視野画像をHMD110に表示するための処理について説明する。図5は、視野画像をHMD110に表示する処理を示すフローチャートである。図6は、仮想空間200の一例を示すxyz空間図である。図7(a)は、図6に示す仮想空間200のyx平面図である。図7(b)は、図6に示す仮想空間200のzx平面図である。図8は、HMD110に表示された視野画像Vの一例を示す図である。
図5に示すように、ステップS1において、制御部121(図4参照)は、仮想カメラ300と、各種オブジェクトとを含む仮想空間200を示す仮想空間データを生成する。図6に示すように、仮想空間200は、中心位置21を中心とした全天球として規定される(図6では、上半分の天球のみが図示されている)。また、仮想空間200では、中心位置21を原点とするxyz座標系が設定されている。仮想カメラ300は、HMD110に表示される視野画像V(図8参照)を特定するための視軸Lを規定している。仮想カメラ300の視野を定義するuvw座標系は、現実空間におけるユーザUの頭部を中心として規定されたuvw座標系に連動するように決定される。また、HMD110を装着したユーザUの現実空間における移動に連動して、制御部121は、仮想カメラ300を仮想空間200内で移動させてもよい。
次に、ステップS2において、制御部121は、仮想カメラ300の視野CV(図7参照)を特定する。具体的には、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の状態を示すデータに基づいて、HMD110の位置や傾きに関する情報を取得する。次に、制御部121は、HMD110の位置や傾きに関する情報に基づいて、仮想空間200内における仮想カメラ300の位置や向きを特定する。次に、制御部121は、仮想カメラ300の位置や向きから仮想カメラ300の視軸Lを決定し、決定された視軸Lから仮想カメラ300の視野CVを特定する。ここで、仮想カメラ300の視野CVは、HMD110を装着したユーザUが視認可能な仮想空間200の一部の領域に相当する(換言すれば、HMD110に表示される仮想空間200の一部の領域に相当する)。また、視野CVは、図7(a)に示すxy平面において、視軸Lを中心とした極角αの角度範囲として設定される第1領域CVaと、図7(b)に示すxz平面において、視軸Lを中心とした方位角βの角度範囲として設定される第2領域CVbとを有する。尚、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、ユーザUの視線方向を特定し、ユーザUの視線方向に基づいて仮想カメラ300の向きを決定してもよい。
このように、制御部121は、位置センサ130及び/又はHMDセンサ114からのデータに基づいて、仮想カメラ300の視野CVを特定することができる。ここで、HMD110を装着したユーザUが動くと、制御部121は、位置センサ130及び/又はHMDセンサ114から送信されたHMD110の動きを示すデータに基づいて、仮想カメラ300の視野CVを変化させることができる。つまり、制御部121は、HMD110の動きに応じて、視野CVを変化させることができる。同様に、ユーザUの視線方向が変化すると、制御部121は、注視センサ140から送信されたユーザUの視線方向を示すデータに基づいて、仮想カメラ300の視野CVを移動させることができる。つまり、制御部121は、ユーザUの視線方向の変化に応じて、視野CVを変化させることができる。
次に、ステップS3において、制御部121は、HMD110の表示部112に表示される視野画像Vを示す視野画像データを生成する。具体的には、制御部121は、仮想空間200を規定する仮想空間データと、仮想カメラ300の視野CVとに基づいて、視野画像データを生成する。
次に、ステップS4において、制御部121は、視野画像データに基づいて、HMD110の表示部112に視野画像Vを表示する(図7参照)。このように、HMD110を装着しているユーザUの動きに応じて、仮想カメラ300の視野CVが変化し、HMD110の表示部112に表示される視野画像Vが変化するので、ユーザUは仮想空間200に没入することができる。
尚、仮想カメラ300は、左目用仮想カメラと右目用仮想カメラを含んでもよい。この場合、制御部121は、仮想空間データと左目用仮想カメラの視野に基づいて、左目用の視野画像を示す左目用視野画像データを生成する。さらに、制御部121は、仮想空間データと、右目用仮想カメラの視野に基づいて、右目用の視野画像を示す右目用視野画像データを生成する。その後、制御部121は、左目用視野画像データと右目用視野画像データに基づいて、HMD110の表示部112に左目用視野画像と右目用視野画像を表示する。このようにして、ユーザUは、左目用視野画像と右目用視野画像から、視野画像を3次元画像として視認することができる。尚、本明細書では、説明の便宜上、仮想カメラ300の数は一つとする。勿論、本開示の実施形態は、仮想カメラの数が2つの場合でも適用可能である。
次に、本実施形態に係る情報処理方法について図9から図11を参照して説明する。図9は、音反射オブジェクト400(図11参照)が生成される前の仮想空間200を示す図である。図10は、本実施形態に係る情報処理方法を説明するためのフローチャートである。図11は、音反射オブジェクト400を含む仮想空間200を示す図である。
最初に、図9に示すように、仮想空間200は、仮想カメラ300と、音源オブジェクトMCと、自己アバターオブジェクト(図示せず)と、集音オブジェクトHCと、味方アバターオブジェクトFCと、敵アバターオブジェクトECとを含む。制御部121は、これらのオブジェクトを含む仮想空間200を規定する仮想空間データを生成している。
仮想カメラ300は、ユーザXが操作するHMDシステム1Aに関連付けられている。つまり、ユーザXが装着するHMD110の動きに応じて仮想カメラ300の位置や向き(つまり、仮想カメラ300の視野CV)が変更される。本実施形態では、ユーザXに提供される仮想空間の視点は一人称視点であるため、仮想カメラ300は、図示しない自己アバターオブジェクトと一体的に構成されている。一方、ユーザXに提供される仮想空間の視点が三人称視点である場合、仮想カメラ300の視野内に自己アバターオブジェクトが表示される。
音源オブジェクトMCは、マイク118に入力されたユーザX(図1参照)の音声の音源として規定されており、仮想カメラ300と一体的に構成されている。音源オブジェクトMCと仮想カメラ300が一体的に構成されている場合、仮想カメラ300は、音源の機能を有すると解釈してもよい。また、音源オブジェクトMCは透明であってもよい。この場合、音源オブジェクトMCは視野画像V上には表示されない。尚、音源オブジェクトMCは、仮想カメラ300と分離していてもよい。例えば、音源オブジェクトMCは、仮想カメラ300に近接していると共に、仮想カメラ300に追従してもよい(つまり、音源オブジェクトMCは、仮想カメラ300の動きに応じて移動してもよい)。
同様に、集音オブジェクトHCは、仮想空間200上を伝搬する音声を集音する集音器として規定されており、仮想カメラ300と一体的に構成されている。集音オブジェクトHCと仮想カメラ300が一体的に構成されている場合、仮想カメラ300は、集音器の機能を有すると解釈してもよい。また、集音オブジェクトHCは透明であってもよい。尚、集音オブジェクトHCは、仮想カメラ300と分離していてもよい。例えば、集音オブジェクトHCは、仮想カメラ300に近接していると共に、仮想カメラ300に追従してもよい(つまり、集音オブジェクトHCは、仮想カメラ300の動きに応じて移動してもよい)。
味方アバターオブジェクトFCは、ユーザYが操作するHMDシステム1Bに関連付けられている。つまり、味方アバターオブジェクトFCは、ユーザYのアバターオブジェクトであって、ユーザYの操作により制御される。また、味方アバターオブジェクトFCは、マイク118に入力されたユーザYの音声の音源および仮想空間200上を伝搬する音声を収集する集音器として機能してもよい。換言すれば、味方アバターオブジェクトFCは、音源オブジェクト及び集音オブジェクトと一体的に構成されてもよい。
敵アバターオブジェクトECは、ユーザZの操作により制御される。つまり、敵アバターオブジェクトECは、ユーザZの操作により制御される。また、敵アバターオブジェクトECは、マイク118に入力されたユーザZの音声の音源および仮想空間200上を伝搬する音声を収集する集音器として機能してもよい。換言すれば、敵アバターオブジェクトECは、音源オブジェクト及び集音オブジェクトと一体的に構成されてもよい。本実施形態では、ユーザX〜Zが、多人数が参加可能なオンラインゲームをプレイしている場合、ユーザXとユーザYが味方同士である一方、ユーザZはユーザX,Yに対して敵となることを前提としている。尚、本実施形態では、敵アバターオブジェクトECは、ユーザZにより操作されているが、敵アバターオブジェクトECはコンピュータプログラム(CPU)によって制御されていてもよい。
次に、本実施形態に係る情報処理方法について図10を参照して説明する。図10に示すように、ステップS10において、HMDシステム1Aの制御部121(以下、単に制御部121という。)は、図示しない自己アバターオブジェクトが敵アバターオブジェクトECから所定の攻撃を受けたかどうか判定する。制御部121は、自己アバターオブジェクトが敵アバターオブジェクトECから所定の攻撃を受けたと判定した場合(ステップS1でYES)、音反射オブジェクト400を生成する(ステップS11)。一方、制御部121は、自己アバターオブジェクトが敵アバターオブジェクトECから所定の攻撃を受けていないと判定した場合(ステップS1でNO)、処理は再びステップS10に戻る。尚、本実施形態では、自己アバターオブジェクトが敵アバターオブジェクトECから攻撃を受けたときに音反射オブジェクト400が生成されるが、攻撃以外の所定の作用を及ぼした場合に、音反射オブジェクト400が生成されてもよい。
図11に示すように、仮想空間200は、図9に示す仮想空間200上に配置されたオブジェクトに追加して音反射オブジェクト400を含む。音反射オブジェクト400は、仮想空間200内を伝搬する音声を反射する反射体として規定されており、音源オブジェクトMCと集音オブジェクトHCと一体的に構成された仮想カメラ300を囲うように配置されている。尚、音源オブジェクトMCと集音オブジェクトHCが仮想カメラ300から分離している場合も同様に、音反射オブジェクト400は、音源オブジェクトMCと集音オブジェクトHCを囲うように配置される。
音反射オブジェクト400は、所定の反射特性及び透過特性を有する。例えば、音反射オブジェクト400の反射率は所定の値に設定されていると共に、音反射オブジェクト400の透過率は所定の値に設定されている。例えば、音反射オブジェクト400の反射率と透過率がそれぞれ50%であって、音反射オブジェクト400に入射する入射音の音量(音圧レベル)が90dBであるとすれば、音反射オブジェクト400によって反射された反射音の音量と音反射オブジェクト400を透過した透過音の音量は、それぞれ87dBとなる。
また、音反射オブジェクト400は、音源オブジェクトMCと集音オブジェクトHCと一体的に構成された仮想カメラ300の中心位置と一致しており、直径Rを有する球状に形成されている。つまり、仮想カメラ300は、球状に形成された音反射オブジェクト400の内部に配置されているため、音反射オブジェクト400に完全に覆われている。尚、音源オブジェクトMCと集音オブジェクトHCが仮想カメラ300から分離している場合、音反射オブジェクト400の中心位置は、音源オブジェクトMCと集音オブジェクトHCのうちの少なくとも一方の中心位置と一致している。
また、音反射オブジェクト400は、透明であってもよい。この場合、音反射オブジェクト400は視野画像V上には表示されないので、仮想空間へのユーザXの没入感(仮想空間に対する臨場感)が損なわれることを防止することができる。
図10に戻ると、ステップS10の処理が実行された後に、ユーザXの音声がマイク118に入力された場合(ステップS12でYES)、ステップS13において、マイク118は、ユーザXの音声に対応する音声データを生成した上で、当該生成された音声データを制御装置120の制御部121に送信する。このようにして、制御部121は、ユーザXの音声に対応する音声データを取得する。一方、ユーザXの音声がマイク118に入力されない場合(ステップS12でNO)、処理は再びステップS12に戻る。
次に、ステップS14において、制御部121は、音反射オブジェクト400の直径Rと反射率に基づいて音声データを加工する。ここで、仮想空間200において、点音源である音源オブジェクトMCから全方位(360度)に向けて出力された音声は、音反射オブジェクト400によって一回反射又は多重反射された後に、集音オブジェクトHCによって集音される。さらに、本実施形態では、音反射オブジェクト400の中心位置は、音源オブジェクトMCと集音オブジェクトHCの中心位置と一致しているため、制御部121は、音反射オブジェクト400の特性(つまり、反射率と直径R)とに基づいて音声データを加工する。ここで、音反射オブジェクト400の反射率が大きい程、音声データの音量は大きくなる。一方、音反射オブジェクト400の反射率が小さい程、音声データの音量は小さくなる。さらに、音反射オブジェクト400の直径Rが大きい程、距離減衰によって音声データの音量は小さくなると共に、マイク118に音声が入力された時刻t1とヘッドフォン116に音声が出力される時刻t2との間の時間間隔Δt(=t2−t1)が大きくなる。一方、音反射オブジェクト400の直径Rが小さい程、距離減衰による音声データの減衰量は小さくなる(つまり、音声データの音量が大きくなる)と共に、時間間隔Δtが小さくなる。つまり、時間間隔Δtは、音反射オブジェクト400の直径Rに応じて決定される。
その後、ステップS15において、制御部121は、加工された音声データに対応する音声をHMDシステム1Aのヘッドフォン116に出力する。ここで、制御部121は、マイク118にユーザXの音声が入力されてから所定期間経過後(例えば、0.2から0.3秒後)に、加工された音声データに対応する音声をユーザXの両耳に装着されたヘッドフォン116に出力する。ここで、仮想カメラ300(音源オブジェクトMCと集音オブジェクトHC)は球状の音反射オブジェクト400によって完全に囲まれているので、音反射オブジェクト400により規定された閉空間を多重反射した反響音がヘッドフォン116に出力される。
その後、所定時間(例えば、数秒間から10秒間)経過した場合(ステップS16でYES)、制御部121は、音反射オブジェクト400を仮想空間から消去する(ステップS17)。所定時間が経過していない場合(ステップS16でNO)、処理はステップS12に戻る。尚、ステップS16で規定された所定時間を長くしてもよい(例えば、1分間)。この場合、所定の回復アイテムが使用された場合に、音反射オブジェクト400は消去されてもよい。
本実施形態によれば、マイク118にユーザXの音声が入力されてから所定期間経過後に、加工された音声データに対応する音声(反響音)がユーザXに装着されたヘッドフォン116に出力される。このように、ユーザXが仮想空間200上に配置された味方アバターオブジェクトFCを操作するユーザYと音声を通じてコミュニケーションを図っているときに、ユーザXの音声が音反射オブジェクト400によってヘッドフォン116から所定期間経過後に出力される。この結果、ユーザXは、ヘッドフォン116から出力された自身の音声によってユーザYとのコミュニケーションを妨害される。従って、仮想空間内における音声を利用したユーザ間のコミュニケーションを工夫することで、仮想空間のエンターテイメント性を向上させることが可能な情報処理方法を提供することができる。
本実施形態によれば、敵アバターオブジェクトECが自己アバターオブジェクトに攻撃を仕掛けたときに、ユーザXは、マイク118から出力された自身の音声によって、ユーザYとの音声コミュニケーションを妨害される。このように、仮想空間のエンターテイメント性を向上させることができる。特に、仮想空間200内に配置された音反射オブジェクト400の反射率と直径Rに基づいて音声データが加工され、当該加工された音声データに対応する音声がヘッドフォン116に出力される。このように、音反射オブジェクト400により閉空間を多重反射した反響音をヘッドフォン116に出力することができる。
また、本実施形態によれば、音反射オブジェクト400の反射率が所定の値に設定されていると共に、音反射オブジェクト400の透過率が所定の値に設定されている。このため、ユーザXは自身の音声により、ユーザYとの音声コミュニケーションを妨害される。一方、ユーザYは、ユーザXが発した音声を聞くことができると共に、ユーザXはユーザYが発した音声を聞くことができる。このとき、HMDシステム1Aは、ユーザXの音声に対応する音声データを通信ネットワーク3とゲームサーバ2を介してHMDシステム1Bに送信する。また、HMDシステム1Bは、ユーザYの音声に対応する音声データを通信ネットワーク3とゲームサーバ2を介してHMDシステム1Aに送信する。このように、仮想空間のエンターテイメント性を向上させることができる。さらに、ユーザXはユーザY等の他の音源オブジェクトから発せられる音声を聞くことができるので、仮想空間へのユーザXの没入感が過度に損なわれることが防止される。
制御部121によって実行される各種処理をソフトウェアによって実現するために、本実施形態に係る表示制御方法をコンピュータ(プロセッサ)に実行させるための表示制御プログラムが記憶部123又はROMに予め組み込まれていてもよい。または、表示制御プログラムは、磁気ディスク(HDD、フロッピーディスク)、光ディスク(CD−ROM,DVD−ROM、Blu−rayディスク等)、光磁気ディスク(MO等)、フラッシュメモリ(SDカード、USBメモリ、SSD等)等のコンピュータ読取可能な記憶媒体に格納されていてもよい。この場合、記憶媒体が制御装置120に接続されることで、当該記憶媒体に格納されたプログラムが、記憶部123に組み込まれる。そして、記憶部123に組み込まれた表示制御プログラムがRAM上にロードされて、プロセッサがロードされた当該プログラムを実行することで、制御部121は本実施形態に係る表示制御方法を実行する。
また、表示制御プログラムは、通信ネットワーク3上のコンピュータから通信インターフェース125を介してダウンロードされてもよい。この場合も同様に、ダウンロードされた当該プログラムが記憶部123に組み込まれる。
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
本実施形態では、敵アバターオブジェクトECからの攻撃に応じて音反射オブジェクト400が生成され、生成された音反射オブジェクト400の特性に基づいて、マイク118に音声が入力されてから所定期間経過後に、加工された音声に対応する音声(反響音)がヘッドフォン116に出力されているが、本実施形態はこれには限定されない。例えば、制御部121は、音反射オブジェクト400を生成せずに、反響音を所定期間経過後にヘッドフォン116に出力してもよい。具体的には、敵アバターオブジェクトECからの攻撃等の所定のイベントが発生した際に、制御部121は、ユーザXの音声が反響音となるように所定のアルゴリズムに基づいて音声データを加工し、当該加工された音声データに対応する音声を所定期間経過後にヘッドフォン116に出力してもよい。
また、本実施形態では、音反射オブジェクト400の形状を球状として説明しているが、本実施形態はこれには限定されない。音反射オブジェクトの形状は、円柱形状でも直方体形状でもよく、音源オブジェクトMCと集音オブジェクトHCと一体的に構成された仮想カメラ300が音反射オブジェクトに囲まれていれば、音反射オブジェクトの形状は特に限定されない。
1,1A,1B,1C:HMDシステム
2:ゲームサーバ
3:通信ネットワーク
21:中心位置
100:ゲームシステム
112:表示部
114:センサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200:仮想空間
300:仮想カメラ
320:外部コントローラ
400:音反射オブジェクト
MC:音源オブジェクト
HC:集音オブジェクト
FC:味方アバターオブジェクト
EC:敵アバターオブジェクト
2:ゲームサーバ
3:通信ネットワーク
21:中心位置
100:ゲームシステム
112:表示部
114:センサ
116:ヘッドフォン
118:マイク
120:制御装置
121:制御部
123:記憶部
124:I/Oインターフェース
125:通信インターフェース
126:バス
130:位置センサ
140:注視センサ
200:仮想空間
300:仮想カメラ
320:外部コントローラ
400:音反射オブジェクト
MC:音源オブジェクト
HC:集音オブジェクト
FC:味方アバターオブジェクト
EC:敵アバターオブジェクト
Claims (7)
- ヘッドマウントディスプレイと、音声入力部と、音声出力部とを有するユーザ端末を備えたシステムにおける情報処理方法であって、
(a)仮想カメラと、前記音声入力部に入力される音声を発生する音源オブジェクトと、集音オブジェクトとを含む仮想空間を示す仮想空間データを生成するステップと、
(b)前記ヘッドマウントディスプレイの動きに応じて、前記仮想カメラの視野を決定するステップと、
(c)前記仮想カメラの視野と前記仮想空間データに基づいて、視野画像データを生成するステップと、
(d)前記視野画像データに基づいて、前記ヘッドマウントディスプレイに視野画像を表示させるステップと、
(e)前記音声入力部に入力された音声を示す音声データを取得するステップと、
(f)前記音声データを加工するステップと、
(g)前記音声入力部に前記音声が入力されてから所定期間経過後に、前記加工された音声データに対応する音声を前記音声出力部に出力させるステップと、
を含む、情報処理方法。 - 前記仮想空間は、敵オブジェクトをさらに含み、
前記方法は、
(h)前記敵オブジェクトが前記ユーザ端末に関連付けられたアバターオブジェクトに所定の作用を及ぼしたかどうかを判定するステップをさらに含み、
前記敵オブジェクトが前記アバターオブジェクトに前記所定の作用を及ぼしたと判定された場合に、前記ステップ(f)及び前記ステップ(g)が実行される、請求項1に記載の情報処理方法。 - 前記仮想空間は、
前記仮想空間内を伝搬する音声を反射する反射体として規定されると共に、前記音源オブジェクトと前記集音器オブジェクトとを囲うように配置された音反射オブジェクトをさらに含み、
前記ステップ(f)では、前記音反射オブジェクトの特性に基づいて、前記音声データが加工される、請求項1又は2に記載の情報処理方法。 - 前記音反射オブジェクトの反射率は、第1の値に設定されていると共に、前記音反射オブジェクトの透過率は、第2の値に設定されている、請求項3に記載の情報処理方法。
- 前記音反射オブジェクトの中心位置は、前記音源オブジェクト及び前記集音器オブジェクトのうちの少なくとも一つの中心位置と一致しており、
前記音反射オブジェクトは、所定の直径を有する球状に形成され、
前記ステップ(f)では、前記音反射オブジェクトの反射率と前記音反射オブジェクトの直径に基づいて、前記音声データが加工される、請求項4に記載の情報処理方法。 - 前記音反射オブジェクトは、透明であって、前記視野画像内に表示されない、請求項3から5のうちいずれか一項に記載の情報処理方法。
- 請求項1から6のうちいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138833A JP2018011193A (ja) | 2016-07-13 | 2016-07-13 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
US15/647,396 US20180015362A1 (en) | 2016-07-13 | 2017-07-12 | Information processing method and program for executing the information processing method on computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138833A JP2018011193A (ja) | 2016-07-13 | 2016-07-13 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018011193A true JP2018011193A (ja) | 2018-01-18 |
Family
ID=60994417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016138833A Pending JP2018011193A (ja) | 2016-07-13 | 2016-07-13 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018011193A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024101683A1 (ko) * | 2022-11-09 | 2024-05-16 | 삼성전자주식회사 | 오디오 신호를 레코딩하기 위한 웨어러블 장치 및 그 방법 |
-
2016
- 2016-07-13 JP JP2016138833A patent/JP2018011193A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024101683A1 (ko) * | 2022-11-09 | 2024-05-16 | 삼성전자주식회사 | 오디오 신호를 레코딩하기 위한 웨어러블 장치 및 그 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6017664B1 (ja) | 情報処理方法及び情報処理プログラム | |
US9875079B1 (en) | Information processing method and system for executing the information processing method | |
JP6266814B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
US20180015362A1 (en) | Information processing method and program for executing the information processing method on computer | |
JP6257827B1 (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
JP6257826B1 (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
JP6223533B1 (ja) | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6212666B1 (ja) | 情報処理方法、プログラム、仮想空間配信システム及び装置 | |
JP6190497B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6207691B1 (ja) | 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6289703B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP6266823B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP2018011193A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018206340A (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
JP2018195172A (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP2018109940A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018007227A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6403843B1 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP6999538B2 (ja) | 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置 | |
JP7041484B2 (ja) | プログラム、情報処理装置、情報処理システム、および情報処理方法 | |
JP6275809B1 (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム | |
JP2018156675A (ja) | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
JP2019211868A (ja) | 画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法 | |
JP2018020115A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6941130B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 |