[本開示の実施形態の説明]
はじめに、本開示の例示的な実施形態の構成を列記して説明する。本開示の実施形態による方法、プログラム及びコンピュータは、以下のような構成を備えてもよい。
(項目1)
ヘッドマウントデバイスを介して第1ユーザに仮想体験を提供するコンピュータによって実行される情報処理方法であって、
前記第1ユーザに関連付けられた第1アバター及び第1キャラクタオブジェクトと、第2ユーザに関連付けられた第2アバター及び第2キャラクタオブジェクトとを含む仮想空間を規定する仮想空間データを特定するステップと、
前記第1アバターの視野と前記第2アバターの位置との間の関係が第1条件を満たし、且つ、前記第1ユーザにより入力される操作入力が第2条件を満たす場合に、前記仮想空間内のオブジェクトを前記第2アバターに対して作用させることなく、前記第1アバター、前記第1キャラクタオブジェクト、前記第2アバター及び前記第2キャラクタオブジェクトのうちの少なくとも1つに関連付けられたパラメータを変化させるステップと
を含む、方法。
(項目2)
前記操作入力は、前記コンピュータに接続されたコントローラに対する前記第1ユーザによる操作に応じて変化する、前記コントローラの状態を含む、項目1に記載の方法。
(項目3)
前記コントローラは複数の入力部を含み、前記コントローラの状態は、前記複数の入力部のうちの少なくとも1つが前記第1ユーザにより操作されていることを含む、項目2に記載の方法。
(項目4)
前記第1アバターの視野と前記第2アバターの位置との間の関係が前記第1条件を満たし、且つ、前記第1ユーザにより入力される前記操作入力が前記第2条件を満たす場合に、前記第1アバターに、前記第2アバターに対するジェスチャーを行わせるステップをさらに含む、項目1から3のいずれかに記載の方法。
(項目5)
前記第2アバター及び前記第2キャラクタオブジェクトのうちの少なくとも1つに関連付けられた変化されるパラメータは、前記仮想空間におけるコンテキストに応じた前記ジェスチャーにより影響される感情に関連付けられるパラメータである、項目4に記載の方法。
(項目6)
前記第1アバターの視野と前記第2アバターの位置との間の関係が前記第1条件を満たすことは、前記第1アバターの視線上に前記第2アバターが存在すること、又は、前記第2アバターが前記第1アバターの視野の特定の一部の中に存在することを含む、項目1から5のいずれかに記載の方法。
(項目7)
前記第1アバターの属性と前記第2アバターの属性との間の関係に基づいて、変化させるべきパラメータ及び該パラメータの変化量を決定するステップをさらに含む、項目1から6のいずれかに記載の方法。
(項目8)
前記第1キャラクタオブジェクトの属性と前記第2キャラクタオブジェクトの属性との間の関係に基づいて、変化させるべきパラメータ及び該パラメータの変化量を決定するステップをさらに含む、項目1から7のいずれかに記載の方法。
(項目9)
項目1から8のいずれかに記載の方法をプロセッサに実行させるプログラム。
(項目10)
少なくともプロセッサを備え、前記プロセッサの制御により項目1から8のいずれかに記載の方法を実行する、コンピュータ。
[本開示の実施形態の詳細]
以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同様の要素には同様の符号を付してある。それらの名称及び機能も同様である。このような要素については重複する説明が省略される。
図1Aを参照して、ヘッドマウントデバイス(Head−Mounted Device、HMD)システム100の構成について説明する。図1は、HMDシステム100の構成を概略的に示す。一例では、HMDシステム100は、家庭用のシステム又は業務用のシステムとして提供される。HMDは、表示部を備える所謂ヘッドマウントディスプレイであってもよく、表示部を有するスマートフォン等の端末を装着可能なヘッドマウント機器であってもよい。
HMDシステム100は、HMD110と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD110は、表示部112と、注視センサ140とを含む。コントローラ160は、モーションセンサ130を含んでもよい。
一例では、コンピュータ200は、インターネット等のネットワーク192に接続可能であってもよく、ネットワーク192に接続されるサーバ150等のコンピュータと通信可能であってもよい。別の態様において、HMD110は、HMDセンサ120の代わりにセンサ114を含んでもよい。
HMD110は、ユーザ190の頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD110は、右目用の画像及び左目用の画像を表示部112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。
表示部112は、例えば、非透過型の表示装置として実現される。一例では、表示部112は、ユーザの両目の前方に位置するように、HMD110の本体に配置される。したがって、ユーザは、表示部112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、ユーザが選択可能なメニューの画像等を含む。ある実施形態において、表示部112は、スマートフォン等の情報表示端末が備える液晶表示部又は有機EL(Electro Luminescence)表示部として実現され得る。
一例では、表示部112は、右目用の画像を表示するためのサブ表示部と、左目用の画像を表示するためのサブ表示部とを含み得る。別の態様において、表示部112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、表示部112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
一例では、HMD110は、複数の光源(図示せず)を含む。各光源は、例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD110の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ120は、HMD110が発する複数の赤外線を読み取り、現実空間内におけるHMD110の位置及び傾きを検出してもよい。
ある態様において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD110の画像情報を用いて、画像解析処理を実行することにより、HMD110の位置及び傾きを検出することができる。
別の態様において、HMD110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD110は、センサ114を用いて、HMD110自身の位置及び傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、ジャイロセンサ等である場合、HMD110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置及び傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD110の3軸周りの角速度を経時的に検出する。HMD110は、各角速度に基づいて、HMD110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD110の傾きを算出する。また、HMD110は、透過型表示装置を備えていても良い。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視界画像は、仮想空間を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。例えば、HMD110に搭載されたカメラで撮影した画像を視界画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視界画像の一部から現実空間を視認可能にしてもよい。
注視センサ140は、ユーザ190の右目及び左目の視線が向けられる方向(視線)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある態様において、注視センサ140は、右目用のセンサ及び左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目及び左目に赤外光を照射するとともに、照射光に対する角膜及び虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線を検知することができる。
サーバ150は、コンピュータ200にプログラムを送信し得る。別の態様において、サーバ150は、他のユーザによって使用されるHMDに仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行う場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。
コントローラ160は、有線又は無線によりコンピュータ200に接続される。コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある態様において、コントローラ160は、ユーザ190によって把持可能に構成される。別の態様において、コントローラ160は、ユーザ190の身体又は衣類の一部に装着可能に構成される。別の態様において、コントローラ160は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の態様において、コントローラ160は、ユーザ190から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。
ある態様において、モーションセンサ130は、ユーザの手に取り付けられて、ユーザの手の動きを検出する。例えば、モーションセンサ130は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ130は、例えば、手袋型のコントローラ160Aに設けられる。ある実施形態において、現実空間における安全のため、コントローラ160Aは、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。別の態様において、複数の操作ボタンを有する一般的な構造のコントローラ160Bが用いられてもよい。別の態様において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。ユーザ190の身体の様々な部分の位置、向き、動きの方向、動きの距離などを検知する光学式センサが用いられてもよい。例えば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表す信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。
図2を参照して、本開示の実施形態に係るコンピュータ200について説明する。図2は、本開示の一実施形態によるコンピュータ200の基本的なハードウェア構成の例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ202と、メモリ204と、ストレージ206と、入出力インターフェース208と、通信インターフェース210とを備える。各構成要素は、それぞれ、バス212に接続される。
プロセッサ202は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ204又はストレージ206に格納されているプログラムに含まれる一連の命令を実行する。ある態様において、プロセッサ202は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field−Programmable Gate Array)等のデバイスとして実現される。
メモリ204は、プログラム及びデータを一時的に保存する。プログラムは、例えば、ストレージ206からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ202によって生成されたデータとを含む。ある態様において、メモリ204は、RAM(Random Access Memory)等の揮発性メモリとして実現される。
ストレージ206は、プログラム及びデータを永続的に保持する。ストレージ206は、例えば、ROM(Read−Only Memory)、ハードディスク装置、フラッシュメモリ等の不揮発性記憶装置として実現される。ストレージ206に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラム等を含む。ストレージ206に格納されるデータは、仮想空間を規定するためのデータ及びオブジェクト等を含む。
別の態様において、ストレージ206は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の態様において、コンピュータ200に内蔵されたストレージ206の代わりに、外部の記憶装置に保存されているプログラム及びデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。
ある実施形態において、入出力インターフェース208は、HMD110、HMDセンサ120及びモーションセンサ130との間で信号を通信する。ある態様において、入出力インターフェース208は、USB(Universal Serial Bus、USB)、DVI(Digital Visual Interface)、HDMI(登録商標)(High−Definition Multimedia Interface)等の端子を用いて実現される。なお、入出力インターフェース208は上述のものに限られない。
ある実施形態において、入出力インターフェース208は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェース208は、コントローラ160及びモーションセンサ130から出力された信号の入力を受ける。別の態様において、入出力インターフェース208は、プロセッサ202から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力、発光等を実行する。
通信インターフェース210は、ネットワーク192に接続され、ネットワーク192に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある態様において、通信インターフェース210は、例えば、LAN(Local Area Network)等の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の無線通信インターフェースとして実現される。なお、通信インターフェース210は上述のものに限られない。
ある態様において、プロセッサ202は、ストレージ206にアクセスし、ストレージ206に格納されている1つ以上のプログラムをメモリ204にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ202は、入出力インターフェース208を介して、仮想空間を提供するための信号をHMD110に送る。HMD110は、その信号に基づいて表示部112に映像を表示する。
図2に示される例では、コンピュータ200は、HMD110の外部に設けられている。しかし、別の態様において、コンピュータ200は、HMD110に内蔵されてもよい。一例として、表示部112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
また、コンピュータ200は、複数のHMD110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。
ある実施形態において、HMDシステム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向及び水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施形態では、グローバル座標系は視点座標系の1つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、及び前後方向は、それぞれ、x軸、y軸、z軸として規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
ある態様において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD110の各光源から発せられた赤外線をそれぞれ検出すると、HMD110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD110を装着したユーザ190の動きに応じた、現実空間内におけるHMD110の位置及び傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD110の位置及び傾きの時間的変化を検出できる。
グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD110の傾きに基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。
図3を参照して、uvw視野座標系について説明する。図3は、ある実施形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置及び傾きを検出する。プロセッサ202は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
図3に示されるように、HMD110は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD110は、グローバル座標系を規定する水平方向、鉛直方向、及び前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、及びロール方向(w軸)として設定する。
ある態様において、HMD110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ202は、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、及び前後方向(z軸)は、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)及びロール方向(w軸)に一致する。
uvw視野座標系がHMD110に設定された後、HMDセンサ120は、HMD110の動きに基づいて、設定されたuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD110の傾きとして、uvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)及びロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度を表す。
HMDセンサ120は、検出されたHMD110の傾き角度に基づいて、HMD110が動いた後のHMD110におけるuvw視野座標系を、HMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置及び傾きに関わらず、常に一定である。HMD110の位置及び傾きが変わると、当該位置及び傾きの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置及び傾きが変化する。
ある態様において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度及び複数の点間の相対的な位置関係(例えば、各点間の距離等)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ202は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施形態に従う仮想空間400を表現する一態様を概念的に表す図である。仮想空間400は、中心406の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間400のうちの上半分の天球が例示されている。仮想空間400では各メッシュが規定される。各メッシュの位置は、仮想空間400に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間400に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間400において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像が展開される仮想空間400をユーザに提供する。
ある態様において、仮想空間400では、中心406を原点とするxyz座標系が規定される。xyz座標系は、例えば、グローバル座標系に平行である。xyz座標系は視点座標系の一種であるため、xyz座標系における水平方向、鉛直方向(上下方向)及び前後方向は、それぞれx軸、y軸及びz軸として規定される。したがって、xyz座標系のx軸(水平方向)がグローバル座標系のx軸と平行であり、xyz座標系のy軸(鉛直方向)がグローバル座標系のy軸と平行であり、xyz座標系のz軸(前後方向)がグローバル座標系のz軸と平行である。
HMD110の起動時、すなわちHMD110の初期状態において、仮想カメラ404が、仮想空間400の中心406に配置される。ある態様において、プロセッサ202は、仮想カメラ404が撮影する画像をHMD110の表示部112に表示する。仮想カメラ404は、現実空間におけるHMD110の動きに連動して、仮想空間400を同様に移動する。これにより、現実空間におけるHMD110の位置及び向きの変化が、仮想空間400において同様に再現され得る。
HMD110の場合と同様に、仮想カメラ404には、uvw視野座標系が規定される。仮想空間400における仮想カメラ404のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD110のuvw視野座標系に連動するように規定される。したがって、HMD110の傾きが変化すると、それに応じて、仮想カメラ404の傾きも変化する。また、仮想カメラ404は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間400において移動することもできる。
コンピュータ200のプロセッサ202は、仮想カメラ404の配置位置と、基準視線408とに基づいて、仮想空間400における視認領域410を規定する。視認領域410は、仮想空間400のうち、HMD110を装着したユーザが視認する領域に対応する。
注視センサ140によって検出されるユーザ190の視線は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD110のuvw視野座標系は、ユーザ190が表示部112を視認する際の視点座標系に等しい。また、仮想カメラ404のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがって、ある態様に従うHMDシステム100は、注視センサ140によって検出されたユーザ190の視線を、仮想カメラ404のuvw視野座標系におけるユーザの視線とみなすことができる。
図5を参照して、ユーザの視線の決定について説明する。図5は、ある実施形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。
ある態様において、注視センサ140は、ユーザ190の右目及び左目の各視線を検出する。ある態様において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1及びL1を検出する。別の態様において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2及びL2を検出する。この場合、ロール方向wに対して視線R2及びL2がなす角度は、ロール方向wに対して視線R1及びL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
コンピュータ200が、視線の検出結果として、視線R1及びL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1及びL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2及びL2の検出値を注視センサ140から受信した場合には、視線R2及びL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線N0として検出する。視線N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線N0は、視認領域410に対してユーザ190が実際に視線を向けている方向に相当する。
別の態様において、HMDシステム100は、HMDシステム100を構成するいずれかの部分に、マイク及びスピーカを備えてもよい。ユーザは、マイクに発話することにより、仮想空間400に対して、音声による指示を与えることができる。
また、別の態様において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間400においてテレビ番組を表示することができる。
さらに別の態様において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
図6及び図7を参照して、視認領域410について説明する。図6は、仮想空間400において視認領域410をx方向から見たyz断面を表す図である。図7は、仮想空間400において視認領域410をy方向から見たxz断面を表す図である。
図6に示されるように、yz断面における視認領域410は、領域602を含む。領域602は、仮想カメラ404の配置位置と基準視線408と仮想空間400のyz断面とによって定義される。プロセッサ202は、仮想空間おける基準視線408を中心として極角αを含む範囲を、領域602として規定する。
図7に示されるように、xz断面における視認領域410は、領域702を含む。領域702は、仮想カメラ404の配置位置と基準視線408と仮想空間400のxz断面とによって定義される。プロセッサ202は、仮想空間400における基準視線408を中心とした方位角βを含む範囲を、領域702として規定する。極角α及びβは、仮想カメラ404の配置位置と仮想カメラ404の向きとに応じて定まる。
ある態様において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像を表示部112に表示させることにより、仮想空間における視界をユーザ190に提供する。視界画像は、仮想空間画像402のうち視認領域410に重畳する部分に相当する。ユーザ190が、頭に装着したHMD110を動かすと、その動きに連動して仮想カメラ404も動く。その結果、仮想空間400における視認領域410の位置が変化する。これにより、表示部112に表示される視界画像は、仮想空間画像402のうち、仮想空間400においてユーザが向いた方向の視認領域410に重畳する画像に更新される。ユーザは、仮想空間400における所望の方向を視認することができる。
このように、仮想カメラ404の向き(傾き)は仮想空間400におけるユーザの視線(基準視線408)に相当し、仮想カメラ404が配置される位置は、仮想空間400におけるユーザの視点に相当する。したがって、仮想カメラ404を移動(配置位置を変える動作、向きを変える動作を含む)させることにより、表示部112に表示される画像が更新され、ユーザ190の視界(視点、視線を含む)が移動される。
ユーザ190は、HMD110を装着している間、現実世界を視認することなく、仮想空間400に展開される仮想空間画像402のみを視認できる。そのため、HMDシステム100は、仮想空間400への高い没入感覚をユーザに与えることができる。
ある態様において、プロセッサ202は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間400において仮想カメラ404を移動し得る。この場合、プロセッサ202は、仮想空間400における仮想カメラ404の位置及び向きに基づいて、HMD110の表示部112に投影される画像領域(すなわち、仮想空間400における視認領域410)を特定する。
ある実施形態に従うと、仮想カメラ404は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含んでもよい。また、ユーザ190が3次元の仮想空間400を認識できるように、適切な視差が、2つの仮想カメラに設定されてもよい。
図8Aを参照して、コントローラ160の一例であるコントローラ160Aについて説明する。図8Aは、ある実施形態に従うコントローラ160Aの概略構成を表す図である。
ある態様において、コントローラ160Aは、右コントローラと左コントローラとを含み得る。説明を簡単にするために、図8Aにおけるコントローラ160Aは右コントローラを示す。右コントローラは、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある態様において、右コントローラと左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の態様において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ160Aについて説明する。
右コントローラ160Aは、グリップ802と、フレーム804と、天面806とを備える。グリップ802は、ユーザ190の右手によって把持されるように構成されている。例えば、グリップ802は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。
グリップ802は、ボタン808及び810と、モーションセンサ130とを含む。ボタン808は、グリップ802の側面に配置され、右手の中指による操作を受け付ける。ボタン810は、グリップ802の前面に配置され、右手の人差し指による操作を受け付ける。ある態様において、ボタン808、810は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ802の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ802は、モーションセンサ130を備えなくてもよい。
フレーム804は、その円周方向に沿って配置された複数の赤外線LED812を含む。赤外線LED812は、コントローラ160Aを使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED812から発せられた赤外線は、右コントローラ160Aと左コントローラ(図示しない)との各位置や姿勢(傾き、向き)を検出するために使用され得る。図8に示される例では、2列に配置された赤外線LED812が示されているが、配列の数は図8に示されるものに限られない。1列あるいは3列以上の配列が使用されてもよい。
天面806は、ボタン814及び816と、アナログスティック818とを備える。ボタン814及び816は、プッシュ式ボタンとして構成される。ボタン814及び816は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック818は、ある態様において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間400に配置されるオブジェクトを移動するための操作を含む。
ある態様において、右コントローラ160A及び左コントローラは、赤外線LED812等の部材を駆動するための電池を含む。電池は、1次電池及び2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型等任意であり得る。別の態様において、右コントローラ160Aと左コントローラは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、右コントローラ800及び左コントローラは、USBインターフェースを介して電力を供給され得る。
図8Bを参照して、コントローラ160の一例であるコントローラ160Bについて説明する。図8Bは、ある実施形態に従うコントローラ160Bの概略構成を表す図である。
コントローラ160Bは、複数のボタン820(820a、820b、820c、820d)及び822(822a、822b、822c、822d)と、左右のアナログスティック824L及び824Rとを備える。各ボタン820及び822は、プッシュ式ボタンとして構成される。ボタン820及び822は、ユーザ190の手の親指による操作を受け付ける。ユーザ190の手の人差し指又は中指による操作を受け付けることが可能な不図示のトリガー式のボタンが、更にコントローラ160Bに設けられてもよい。アナログスティック824L及び824Rは、ある態様において、それぞれ初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間400に配置されるオブジェクトを移動するための操作を含む。ボタン820(820a、820b、820c、820d)及び822(822a、822b、822c、822d)並びにアナログスティック824L及び824R(更に、含まれる場合には不図示のトリガー式ボタン)には、それぞれ別個の操作コマンドが割り当てられる。操作コマンドは、例えば、仮想空間400内のオブジェクトに指令を与えるためのコマンド、ゲームのメニュー画面等において各種の設定を行うためのコマンド、及びユーザ190が仮想空間400を体験している際にコンピュータ200に入力し得る任意の他のコマンドを含む。各ボタン又はアナログスティックに割り当てられた操作コマンドは、例えばゲームの進行や場面の変化に応じて、動的に変更されてもよい。
ある態様において、コントローラ160Bは、その外表面に配置された不図示の複数の赤外線LEDを含んでもよい。赤外線LEDは、コントローラ160Bを使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LEDから発せられた赤外線は、コントローラ160Bの位置や姿勢(傾き、向き)を検出するために使用され得る。またコントローラ160Bは、内部の電子部品を駆動するための電池を含む。電池は、1次電池及び2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型等任意であり得る。別の態様において、コントローラ160Bは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、コントローラ160Bは、USBインターフェースを介して電力を供給され得る。
図9は、本開示の一実施形態による、HMDシステム100を介してユーザに仮想体験を提供するための、コンピュータ200の機能を示すブロック図である。コンピュータ200は、主にHMDセンサ120、モーションセンサ130、注視センサ140、コントローラ160からの入力に基づいて、様々な処理を実行する。
コンピュータ200は、プロセッサ202と、メモリ204と、通信制御部205とを備える。プロセッサ202は、仮想空間特定部902と、HMD動作検知部904と、視線検知部906と、基準視線決定部908と、視界領域決定部910と、仮想視点特定部912と、視界画像生成部914と、操作入力検知部916と、オブジェクト制御部918と、アバター制御部920と、位置関係特定部921と、条件判定部922と、パラメータ制御部924と、コンテキスト特定部926と、視界画像出力部928とを含み得る。メモリ204は様々な情報を格納するように構成され得る。一例では、メモリ204は、仮想空間データ930、オブジェクトデータ932、アプリケーションデータ934、その他のデータ936を含んでもよい。メモリ204はまた、HMDセンサ120、モーションセンサ130、注視センサ140、コントローラ160等からの入力に対応した出力情報をHMD110に関連付けられる表示部112へ提供するための演算に必要な、各種データを含んでもよい。オブジェクトデータ932は、仮想空間内に配置されるキャラクタオブジェクトを含む、様々なオブジェクトに関するデータを含んでもよい。表示部112は、HMD110に内蔵されてもよいし、HMD110に取り付け可能な別のデバイス(例えば、スマートフォン)のディスプレイであってもよい。
図9においてプロセッサ202内に含まれるコンポーネントは、プロセッサ202が実行する機能を具体的なモジュールとして表現する1つの例にすぎない。複数のコンポーネントの機能が単一のコンポーネントによって実現されてもよい。プロセッサ202がすべてのコンポーネントの機能を実行するように構成されてもよい。
図10は、ユーザが没入する仮想空間の画像を表示部112に表示するための一般的な処理のフロー図である。
図9及び図10を参照して、仮想空間の画像を提供するためのHMDシステム100の一般的な処理を説明する。仮想空間400は、HMDセンサ120、注視センサ140及びコンピュータ200等の相互作用によって提供され得る。
処理はステップ1002において開始する。一例として、アプリケーションデータに含まれるゲームアプリケーションがコンピュータ200によって実行されてもよい。ステップ1004において、プロセッサ202(又は、仮想空間特定部902)は、仮想空間データ930を参照するなどして、ユーザが没入する仮想空間400を構成する天球状の仮想空間画像402を生成する。HMDセンサ120によってHMD110の位置や傾きが検知される。HMDセンサ120によって検知された情報はコンピュータ200に送信される。ステップ1006において、HMD動作検知部904は、HMD110の位置情報や傾き情報を取得する。ステップ1008において、取得された位置情報及び傾き情報に基づいて視界方向が決定される。
注視センサ140がユーザの左右の目の眼球の動きを検出すると、当該情報がコンピュータ200に送信される。ステップ1010において、視線検知部906は、右目及び左目の視線が向けられる方向を特定し、視線方向N0を決定する。ステップ1012において、基準視線決定部908は、HMD110の傾きにより決定された視界方向又はユーザの視線方向N0を基準視線408として決定する。基準視線408はまた、HMD110の位置や傾きに追随する仮想カメラ404の位置及び傾きに基づいて決定されてもよい。
ステップ1014において、視界領域決定部910は、仮想空間400における仮想カメラ404の視界領域410を決定する。図4に示すように、視界領域410は、仮想空間画像402のうちユーザの視界を構成する部分である。視界領域410は基準視線408に基づいて決定される。視界領域410をx方向から見たyz断面図及び視界領域410をy方向から見たxz断面図は、既に説明した図6及び図7にそれぞれ示されている。
ステップ1016において、視界画像生成部914は、視界領域410に基づいて視界画像を生成する。視界画像は、右目用と左目用の2つの2次元画像を含む。これらの2次元画像が表示部112に重畳される(より具体的には、右目用画像が右目用表示部に出力され、左目用画像が左目用表示部に出力される)ことにより、3次元画像としての仮想空間400がユーザに提供される。ステップ1018において、視界画像出力部928は、視界画像に関する情報を表示部112に出力する。表示部112は、受信した視界画像の情報に基づいて、当該視界画像を表示する。処理はステップ1020において終了する。
図11は、本開示の一実施形態による方法1100のフローチャートである。本開示の一実施形態において、コンピュータプログラムが、図11に示される各ステップをプロセッサ202(又はコンピュータ200)に実行させてもよい。また、本開示の別の実施形態は、少なくともプロセッサを備え、当該プロセッサの制御により方法1100を実行するコンピュータとして実施することもできる。
以下、本開示の実施形態について具体的に説明する。ここでは、本開示の実施形態を適用することができる具体例として、複数のユーザが、各ユーザに関連付けられるアバター、ゲームフィールド、当該ゲームフィールド内で行動する各ユーザに関連付けられるキャラクタオブジェクト等が配置された仮想空間に没入して楽しむことができるゲームを想定する。しかし、本開示の実施形態は、必ずしもこのような態様に限定されない。本開示の実施形態が、特許請求の範囲において規定される範囲に含まれる様々な態様を取り得ることは、当業者にとって明らかであろう。
図12は、本実施形態において想定されるゲームの態様を概略的に説明する図である。本実施形態では、第1ユーザ1204A及び第2ユーザ1204B(以下、まとめて「ユーザ1204」とも呼ぶ)が当該ゲームをプレイする。第1ユーザ1204A及び第2ユーザ1204Bは、それぞれ、HMD110A及び110B(以下、まとめて「HMD110」とも呼ぶ)を頭部に装着する。この例では、第1ユーザ1204A及び第2ユーザ1204Bは、それぞれ、図8Aに示す構成を有するコントローラ160A1及び160A2を装着する。これはコントローラの一例にすぎないことが理解されよう。ユーザの身体に装着可能な他の態様のコントローラ、図8Bに示すようなコントローラ等を本開示の実施形態に適用することができる。別の例において、ユーザ1204がコントローラを装着せず、ユーザ1204に装着されないセンサがユーザ1204の動きを検出してもよい。例えば、ユーザ1204を撮影するカメラの信号が、ユーザ1204の動きを表す信号として、コンピュータ200に入力されてもよい。
仮想空間1200内には、第1ユーザ1204A及び第2ユーザ1204Bのそれぞれによって操作される第1アバター1206A及び第2アバター1206B(以下、まとめて「アバター1206」とも呼ぶ)並びにゲームフィールド1212が配置される。ゲームフィールド1212上には、第1ユーザ1204A及び第2ユーザ1204Bの各々に関連付けられる第1キャラクタオブジェクト1208A及び第2キャラクタオブジェクト1208B(以下、まとめて「キャラクタオブジェクト1208」とも呼ぶ)等が配置される。ゲームのプレイ中、ユーザ1204は、自分に関連付けられるアバター1206及びキャラクタオブジェクト1208に様々な動作を行わせることができる。
ユーザ1204は2人より多くてもよく、アバター1206及びキャラクタオブジェクト1208は2つより多くてもよい。以下では、説明を簡単にするため、第1アバター1206A、第2アバター1206B、第1キャラクタオブジェクト1208A及び第2キャラクタオブジェクトがそれぞれ1つずつ登場する例について説明する。
ユーザ1204は、アバター1206を介して、仮想空間1200内のゲームフィールド1212上で行われるゲームを楽しむことができる。第1アバター1206A及び第2アバター1206Bは、それぞれ、第1操作オブジェクト1210A及び第2操作オブジェクト1210B(以下、まとめて「操作オブジェクト1210」とも呼ぶ)を有してもよい。操作オブジェクト1210は、コントローラ160が装着されたユーザ1204の身体の一部に対応する、アバター1206の身体の一部であってもよい。操作オブジェクト1210は、必ずしもアバター1206とは別個のオブジェクトとして表示されなくてもよい。例えば、単にアバター1206の手が表示されてもよい。
図12に示されるように、第1アバター1206A及び第2アバター1206Bの位置にそれぞれ仮想カメラ1202A及び1202B(以下、まとめて「仮想カメラ1202」とも呼ぶ)が配置されてもよい。ユーザ1204は、仮想カメラ1202により(アバター1206の視点から)得られた仮想空間1200の映像を見ることができる。
図11に戻り、処理はステップ1102において開始する。プロセッサ202は、メモリ204に格納されているアプリケーションデータ934に含まれるゲームプログラムを読み出して実行する。
処理はステップ1104に進み、仮想空間特定部902は、仮想空間データ930、オブジェクトデータ932等に基づいて、実行されたゲームのための仮想空間データを特定する。アバター1206及びキャラクタオブジェクト1208に関するデータはオブジェクトデータ930に含まれてもよい。仮想空間データは、ユーザ1204に関連付けられるアバター1206及びキャラクタオブジェクト1208を含む仮想空間を規定する。
仮想視点特定部912は、仮想空間1200における仮想視点を特定する。図12の例において、当該仮想視点は、仮想カメラ1202の位置であってもよい。仮想視点は、ゲームの進行状況に応じて適宜決定されてもよい。
視界画像生成部914は、仮想空間データと、仮想視点と、HMDの向きとに基づいて、視界画像を生成する。視界画像は、例えば、図10に関連して既に説明された処理によって生成される。生成された視界画像は、視界画像出力部928によって、HMD110に関連付けられる表示部112に出力され、表示部112によって表示される。HMD110を装着したユーザ1204は、表示部112に表示された当該視界画像を見ることができる。ユーザ1204は、自分が仮想空間1200内に入り込んでいるかのような没入感を得ることができる。
処理はステップ1106に進み、操作入力検知部916は、ユーザ1204による操作入力を検知する。ここでは、操作入力が第1ユーザ1204Aによって行われると仮定する。この例において、第1ユーザ1204Aは図8Aに示すようなコントローラ160A1を操作している。検知される操作入力は、コントローラ160A1に対する第1ユーザ1204Aによる操作に応じて変化する、当該コントローラ160A1の状態を含んでもよい。コントローラ160A1の状態は、コントローラ160A1の複数の入力部のうちの少なくとも1つが第1ユーザ1204Aにより操作されていることを含んでもよい。例えば、検知される操作入力は、コントローラ160A1のボタン808、810、814及び816並びにアナログスティック818が第1ユーザ1204Aによってどのように操作されているかを示す。一例において、ボタン808が押されたときの操作入力が「入力1」として定義され、ボタン810が押されたときの操作入力が「入力2」として定義されてもよい。別の例において、第1ユーザ1204Aがコントローラを装着せず、第1ユーザ1204Aに装着されないセンサが第1ユーザ1204Aの動きを検出する場合、第1ユーザ1204Aの手の形などが操作入力として検知されてもよい。これらは、本開示において適用することができる操作入力の例にすぎない。コントローラの種類、アプリケーションの種類等に応じて、様々な操作入力を定義することができることが理解されよう。操作入力の定義を含む、操作入力に関する情報は、メモリ204に格納されるその他のデータ936に含まれてもよい。アバター制御部920は、検知された操作入力に応じて第1アバター1206Aを動かすことができる。オブジェクト制御部918は、検知された操作入力、第1アバター1206Aの動き等に応じて、キャラクタオブジェクト1208Aを動かしてもよい。
処理はステップ1108に進み、位置関係特定部921は、第1アバター1206Aの視野と第2アバター1206Bの位置との間の関係を特定する。第1アバター1206Aの視野は、図10のステップ1014により決定されてもよい。第2アバター1206Bの位置は、第2ユーザ1204BによるHMD110B、コントローラ160A2等の操作により決定されてもよい。第1アバター1206Aの視野と第2アバター1206Bの位置との間の関係は、第1アバター1206Aの視線上に第2アバター1206Bが存在するか否か、第2アバター1206Bが第1アバター1206Aの視野の特定の一部の中に存在するか否かなどを含んでもよい。第1アバター1206Aの視野と第2アバター1206Bの位置との間の関係の定義を含む情報は、メモリ204に格納されるその他のデータ936に含まれてもよい。
処理はステップ1110に進み、条件判定部922は、第1アバター1206Aの視野と第2アバター1206Bの位置との間の関係が第1条件を満たすか否か、及び、検知された操作入力が第2条件を満たすか否かを判定する。第1条件は、第1アバター1206Aの視線上に第2アバター1206Bが存在すること、又は、第2アバター1206Bが第1アバター1206Aの視野の特定の一部の中に存在することであってもよい。第2条件は、コントローラ160A1の所定のボタンを押すことによる所定の入力(例えば、ボタン808を押すことによる「入力1」、ボタン810を押すことによる「入力2」など)が行われることであってもよい。
第1条件及び第2条件の両方が満たされない場合又は一方の条件しか満たされない場合(ステップ1110の「N」)、処理はステップ1106の前に戻る。
第1条件及び第2の条件の両方が満たされる場合(ステップ1110の「Y」)、処理はステップ1112に進む。ステップ1112において、アバター制御部920は、第1アバター1206Aに、第2アバター1206Bに対するジェスチャーを行わせる。
図13は、ステップ1112の処理が実行されたときの、仮想空間1200を含むゲームの状況を概略的に示す図である。この例では、第1アバター1206Aの視線1214上に第2アバター1206Bが存在している。したがって、第1条件が満たされている。さらに、ユーザ1204Aにより「入力1」という操作入力が行われている。したがって、第2条件も満たされている。このとき、一例として、図13に示すように、アバター制御部920は、第2アバター1206Bに向かって親指を立てるジェスチャーを第1アバター1206Aに行わせてもよい。
処理はステップ1114に進み、パラメータ制御部924は、第1アバター1206A、第1キャラクタオブジェクト1208A、第2アバター1206B及び第2キャラクタオブジェクト1208Bのうちの少なくとも1つに関連付けられたパラメータを変化させる。例えば、上述のように、第2アバター1206Bに向かって親指を立てるジェスチャーを第1アバター1206Aが行う場合、第2アバター1206Bのレベルを上昇させてもよい。このとき、仮想空間1200内に存在する様々なオブジェクトは、第2アバター1206Bに対して直接作用しない。本実施形態によれば、武器、魔法などの使用を表すエフェクトを仮想空間1200内に生じさせることなく、アバター1206及び/又はキャラクタオブジェクト1208のパラメータを変化させることができる。ステップ1116において処理は終了する。
ステップ1114において変化される、第2アバター1206B及び/又は第2キャラクタオブジェクト1208Bに関連付けられたパラメータは、仮想空間1200におけるコンテキストに応じた、ステップ1112において行われるジェスチャーにより影響される感情に関連付けられるパラメータであってもよい。例えば、教官である第1アバター1206Aが生徒である第2アバター1206Bを指導するというコンテキストを仮定する。指導者が生徒に対して「Good!」という意味で親指を立てるジェスチャーをしたり、「Bad!」という意味で親指を下に向けるジェスチャーをしたりすると、生徒の感情はこれらのジェスチャーにより影響を受け得ると考えられる。図13における点線の吹き出し1216及び1218(仮想空間1200内に表示されなくてもよい)は、このような状況を表現するために例示されている。このような場合、褒められたりけなされたりした第2アバター1206B及び/又は関連する第2キャラクタオブジェクト1208Bの感情に関連付けられる、「レベル」、「スキル」などのパラメータが変化させられてもよい。多種多様なコンテキストに応じて、ジェスチャーにより影響される感情、及び感情に関連付けられるパラメータを多種多様に設定することができることが理解されるべきである。コンテキストに関する情報は、例えば、メモリ204内のアプリケーションデータ934、その他のデータ936等に含まれてもよい。コンテキスト特定部926は、これらのデータから仮想空間1200内のコンテキストを特定してもよい。特定されたコンテキストに関する情報は上述のような処理に用いることができる。
図14は、第1条件及び第2条件が満たされるときに行われる、第1アバター1206Aのジェスチャー、第1アバター1206Aのパラメータ変化、第1キャラクタオブジェクト1208Aのパラメータ変化、第2アバター1206Bのパラメータ変化及び第2キャラクタオブジェクト1208Bのパラメータ変化の組み合わせの例を示す。このようなデータは、予めメモリ204内のその他のデータ936に格納されていてもよい。
図14の例によれば、第1アバター1206Aの視線上に第2アバター1206Bが存在し(第1条件が満たされ)、且つ、操作入力が「入力1」である(第2条件が満たされる)場合、アバター制御部920は、第2アバター1206Bに対して親指を立てるジェスチャーを第1アバター1206Aに行わせる。さらに、パラメータ制御部924は、第1アバター1206Aの、第2アバター1206Bとの相性を上昇させ、第2アバター1206Bのレベルを上昇させる。
また、図14の例によれば、第1アバター1206Aの視線上に第2アバター1206Bが存在し、且つ、操作入力が「入力2」である場合、アバター制御部920は、第2アバター1206Bに対して親指を下に向けるジェスチャーを第1アバター1206Aに行わせる。パラメータ制御部924は、第1アバター1206Aの、第2アバター1206Bとの相性を低下させ、第2アバター1206Bのレベルを低下させる。
また、図14の例によれば、第1アバター1206Aの視野の特定の一部に第2アバター1206Bが存在し、且つ、操作入力が「入力1」である場合、アバター制御部920は、第2アバター1206Bに対して親指を立てるジェスチャーを第1アバター1206Aに行わせる。パラメータ制御部924は、第1キャラクタオブジェクト1208Aの、第2キャラクタオブジェクト1208Bとの相性を上昇させ、第2キャラクタオブジェクト1208Bのスキルを上昇させる。
また、図14の例によれば、第1アバター1206Aの視野の特定の一部に第2アバター1206Bが存在し、且つ、操作入力が「入力2」である場合、アバター制御部920は、第2アバター1206Bに対して親指を下に向けるジェスチャーを第1アバター1206Aに行わせる。パラメータ制御部924は、第1キャラクタオブジェクト1208Aの、第2キャラクタオブジェクト1208Bとの相性を低下させ、第2キャラクタオブジェクト1208Bのスキルを低下させる。
図14に示される第1条件、第2条件、ジェスチャー及びパラメータ変化の組み合わせは、例にすぎない。アプリケーションの種類、アプリケーション内で生じる場面等に応じて、様々な組み合わせを定義し、使用することができることが理解されるべきである。
図15は、アバター1206及び/又はキャラクタオブジェクト1208の属性と、図11のステップ1114の処理において変化させるべきパラメータ及び当該パラメータの変化量との間の関係の例を示す。例として、アバター1206の属性は「高レベル」、「低レベル」等を含んでもよい。キャラクタオブジェクト1208の属性は「戦士」、「魔法使い」等を含んでもよい。アプリケーションの種類等に応じて、アバター1206及びキャラクタオブジェクト1208に関して様々な属性を定義することができることが理解されるべきである。
図15の例によれば、第1アバター1206Aの属性が「高レベル」であり、第2アバター1206Bの属性が「低レベル」であり、第1キャラクタオブジェクト1208Aの属性が「戦士」であり、第2キャラクタオブジェクト1208Bの属性が「戦士」である場合、パラメータ制御部924は、第1アバター1206Aのパラメータ「第2アバターとの相性」を変化させてもよい。ある意味、「高レベル」の第1アバター1206Aが「低レベル」の第2アバター1206Bを褒めたりけなしたりすることになるので、「第2アバターとの相性」の変化量は大きくなるよう設定されてもよい。パラメータ制御部924はまた、第2アバター1206Bのパラメータ「レベル」を変化させてもよい。上述の理由から、当該パラメータの変化量は大きくてもよい。パラメータ制御部924はまた、第1キャラクタオブジェクト1208Aのパラメータ「第2キャラクタオブジェクト1208Bとの相性」を変化させてもよい。上述の理由から、当該パラメータの変化量は大きくてもよい。パラメータ制御部924はまた、第2キャラクタオブジェクト1208Bのパラメータ「武器スキル」を変化させてもよい。第1キャラクタオブジェクト1208A及び第2キャラクタオブジェクト1208Bの両方の属性が「戦士」であり、共通であるので、「武器スキル」の変化量は大きくなるように設定されてもよい。
また、図15の例によれば、第1アバター1206Aの属性、第2アバター1206Bの属性、第1キャラクタオブジェクト1208Aの属性及び第2キャラクタオブジェクト1208Bの属性が、それぞれ、「高レベル」、「低レベル」、「戦士」及び「魔法使い」である場合、第1アバター1206Aのパラメータ「第2アバター1206Bとの相性」、第2アバター1206Bのパラメータ「レベル」、第1キャラクタオブジェクト1208Aのパラメータ「第2キャラクタオブジェクト1208Bとの相性」、第2キャラクタオブジェクト1208Bのパラメータ「武器スキル」の変化量は中程度に設定されてもよい。
また、図15の例によれば、第1アバター1206Aの属性、第2アバター1206Bの属性、第1キャラクタオブジェクト1208Aの属性及び第2キャラクタオブジェクト1208Bの属性が、それぞれ、「高レベル」、「高レベル」、「戦士」及び「戦士」である場合、第1アバター1206Aのパラメータ「第2アバター1206Bとの相性」、第2アバター1206Bのパラメータ「レベル」、第1キャラクタオブジェクト1208Aのパラメータ「第2キャラクタオブジェクト1208Bとの相性」、第2キャラクタオブジェクト1208Bのパラメータ「武器スキル」の変化量は中程度に設定されてもよい。
また、図15の例によれば、第1アバター1206Aの属性、第2アバター1206Bの属性、第1キャラクタオブジェクト1208Aの属性及び第2キャラクタオブジェクト1208Bの属性が、それぞれ、「高レベル」、「高レベル」、「戦士」及び「魔法使い」である場合、第1アバター1206Aのパラメータ「第2アバター1206Bとの相性」、第2アバター1206Bのパラメータ「レベル」、第1キャラクタオブジェクト1208Aのパラメータ「第2キャラクタオブジェクト1208Bとの相性」、第2キャラクタオブジェクト1208Bのパラメータ「武器スキル」の変化量は小さくなるように設定されてもよい。
図15に示されるように、本実施形態によれば、第1アバター1206Aの属性と第2アバター1206Bの属性との間の関係及び/又は第1キャラクタオブジェクト1208Aの属性と第2キャラクタオブジェクト1208Bの属性との間の関係に基づいて、変化させるべきパラメータ及び当該パラメータの変化量を決定することができる。
図15に示されるアバター1206及びキャラクタオブジェクト1208の属性、変化させられるパラメータの種類及びパラメータの変化量の組み合わせは、例にすぎない。アプリケーションの種類、アプリケーション内で生じる場面等に応じて、様々な組み合わせを定義し、使用することができることが理解されるべきである。
上述のように、本開示の実施形態によれば、エンタテイメント性の高い、仮想空間における仮想体験をユーザに提供することができる。
本開示の実施形態が、プロセッサ202(又は、コンピュータ200)、方法1100、プロセッサ202(又は、コンピュータ200)に方法1100を実行させるコンピュータプログラム等として実施することができることは、当業者にとって明らかであろう。
上述の実施形態においては、HMD装置によってユーザが没入する仮想空間(VR空間)を例示して説明したが、HMD装置として、透過型のHMD装置を採用してもよい。この場合、透過型のHMD装置を介してユーザが視認する現実空間に仮想空間を構成する画像の一部を合成した視界画像を出力することにより、拡張現実(AR:Augumented Reality)空間又は複合現実(MR:Mixed Reality)空間における仮想体験をユーザに提供してもよい。この場合、手オブジェクトに代えて、ユーザの手の動きに基づいて、仮想空間内における対象オブジェクトへの作用を生じさせてもよい。具体的には、プロセッサは、現実空間におけるユーザの手の位置の座標情報を特定するとともに、仮想空間内における対象オブジェクトの位置を現実空間における座標情報との関係で定義してもよい。これにより、プロセッサは、現実空間におけるユーザの手と仮想空間における対象オブジェクトとの位置関係を把握し、ユーザの手と対象オブジェクトとの間で上述したコリジョン制御等に対応する処理を実行可能となる。その結果、ユーザの手の動きに基づいて対象オブジェクトに作用を与えることが可能となる。
本開示の実施形態が説明されたが、これらが例示にすぎず、本開示の範囲を限定するものではないことが理解されるべきである。本開示の趣旨及び範囲から逸脱することなく、実施形態の変更、追加、改良等を適宜行うことができることが理解されるべきである。本開示の範囲は、上述した実施形態のいずれによっても限定されるべきではなく、特許請求の範囲及びその均等物によってのみ規定されるべきである。