JP2017033465A - 方法、および、プログラム - Google Patents

方法、および、プログラム Download PDF

Info

Publication number
JP2017033465A
JP2017033465A JP2015155420A JP2015155420A JP2017033465A JP 2017033465 A JP2017033465 A JP 2017033465A JP 2015155420 A JP2015155420 A JP 2015155420A JP 2015155420 A JP2015155420 A JP 2015155420A JP 2017033465 A JP2017033465 A JP 2017033465A
Authority
JP
Japan
Prior art keywords
range
gaze
user
virtual space
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015155420A
Other languages
English (en)
Inventor
多一郎 白石
Taichiro Shiraishi
多一郎 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015155420A priority Critical patent/JP2017033465A/ja
Publication of JP2017033465A publication Critical patent/JP2017033465A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。
【解決手段】ユーザが没入する仮想空間をコンピュータに提供させる方法であって、ユーザが没入する仮想空間を構成する仮想空間画像のうち、ユーザが視認する視界画像を生成するステップと、ユーザの視線方向に基づいて、対象オブジェクトを特定するステップと、ユーザが注視する注視点を検出するステップと、注視点と対象オブジェクトの視線方向における位置に応じて、対象オブジェクトの描画レベルを決定するステップと、を含む方法。
【選択図】図10

Description

本発明は、ユーザが没入する仮想空間をコンピュータに提供させる方法およびプログラムに関するものである。
特許文献1には、ユーザの頭部に装着され、ユーザの右目及び左目に右目用画像および左目用画像を表示することによって、ユーザに三次元仮想空間を提供するヘッドマウント・ディスプレイ(HMD)が開示されている。また、特許文献2には、HMDを装着するユーザの視点変化に基づいて三次元仮想空間画像をリアルタイムに更新する手法として、リアルタイムレンダリングの手法を採用することが開示されている。
特開平8−006708号公報 特開2004−013326号公報
三次元仮想空間画像を提供するためには、右目用画像および左目用画像を生成する必要がある。従って、高画質な三次元仮想空間画像を提供する場合には、各画像を生成するためのレンダリング負荷が大きくなる。特に、ユーザの視点変化に基づいてリアルタイムに三次元仮想空間画像を更新する場合に顕著となる。本発明は、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減することを目的とする。
本発明によれば、ユーザが没入する仮想空間をコンピュータに提供させる方法であって、前記ユーザが没入する仮想空間を構成する仮想空間画像のうち、前記ユーザが視認する視界画像を生成するステップと、前記ユーザの視線方向に基づいて、対象オブジェクトを特定するステップと、前記ユーザが注視する注視点を検出するステップと、前記注視点と前記対象オブジェクトの前記視線方向における位置に応じて、前記対象オブジェクトの描画レベルを決定するステップと、を含む方法。が得られる。
本発明によれば、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。
本発明の実施形態によるHMDシステムを示す図である。 HMDを装着しているユーザの頭部を中心に規定される3次元空間上の直交座標系を示す。 仮想空間と実空間の配置位置の対応関係の一例を示すXYZ空間図である。 仮想空間と実空間の配置位置の対応関係の一例を示すXZ平面図である。 HMDシステムの機能を実現するための、制御回路部の機能を示すブロック図である。 視線方向を決定する方法の一例を示す図である。 視界領域を示す3次元の模式図である。 視界領域をX方向から見たYZ面図である。 視界領域をY方向から見たXZ面図である。 視界画像を説明するための図である。 HMDシステムの機能を実現するための処理を示すフローチャートである。 HMDシステムの機能を実現するための処理を示すフローチャートである。 仮想空間における対象オブジェクトの描画レベルを決定する方法を説明するための図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態による方法、および、プログラムは、以下のような構成を備える。
(項目1)
ユーザが没入する仮想空間をコンピュータに提供させる方法であって、
前記ユーザが没入する仮想空間を構成する仮想空間画像のうち、前記ユーザが視認する視界画像を生成するステップと、
前記ユーザの視線方向に基づいて、対象オブジェクトを特定するステップと、
前記ユーザが注視する注視点を検出するステップと、
前記注視点と前記対象オブジェクトの前記視線方向における位置に応じて、前記対象オブジェクトの描画レベルを決定するステップと、を含む方法。
本項目の方法によれば、ユーザが注視する注視点の近くにオブジェクトが配置されているか否かに応じて、当該オブジェクトの描画レベルを決定するので、注視点の近くに配置されたオブジェクトに描画負荷を集中させることが可能となる。これにより、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。
(項目2)
前記注視点を含む前記視線方向の第1範囲と、
前記注視点に対し、前記視線方向において前記第1範囲より遠い第2範囲と、を特定するステップをさらに含み、
前記対象オブジェクトの前記位置が前記第1範囲に含まれる場合には、前記対象オブジェクトを第1レベルで描画し、
前記対象オブジェクトの前記位置が前記第2範囲に含まれる場合には、前記対象オブジェクトを前記第1レベルより描画レベルの低い第2レベルで描画するように描画レベルを決定する、項目1の方法。
本項目の方法によれば、注視点の視線方向における位置に応じて所定の範囲を設定し、当該範囲に応じた描画レベルが設定されるので、レンダリング負荷をさらに軽減し得る。
(項目3)
前記視線方向に基づいて、前記ユーザが注視する範囲であって、前記視線方向に交差する面内に広がりを有する注視範囲を特定するステップをさらに備え、
前記注視範囲内に配置されたオブジェクトを前記対象オブジェクトとして特定する、項目1または2の方法。
本項目の方法によれば、ユーザの視線方向に基づいて、当該視線方向に交差する面内に広がりを有する注視範囲を設定することにより、描画レベルが決定される対象オブジェクトをさらに限定し得る。これにより、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。
(項目4)
前記注視範囲の前記視線方向に交差する面内における広がりは、前記注視点に近いほど狭い、項目3の方法。
本項目の方法によれば、注視範囲をさらに限定的に設定することにより、描画レベルが決定される対象オブジェクトをさらに限定し得る。これにより、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。
(項目5)
前記注視点を含む前記視線方向の第1範囲と、
前記注視点に対し、前記視線方向において前記第1範囲より遠い第2範囲と、を特定するステップをさらに含み、
前記対象オブジェクトの前記位置が前記第1範囲に含まれる場合には、前記対象オブジェクトを第1レベルで描画し、
前記対象オブジェクトの前記位置が前記第2範囲に含まれる場合には、前記対象オブジェクトを前記第1レベルより描画レベルの低い第2レベルで描画し、
前記注視範囲外に配置されたオブジェクトは、前記第1レベルおよび前記第2レベルより描画レベルの低い第3レベルで描画するように描画レベルを決定する、項目3または4の方法。
本項目の方法によれば、注視範囲外に配置されたオブジェクトの描画レベルを低く設定することにより、レンダリング負荷をさらに軽減し得る。
(項目6)
項目1〜5のいずれかの方法をコンピュータに実行させるプログラム。
[本発明の実施形態の詳細]
本発明の実施形態に係る方法、および、プログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態にかかるHMD110を備えるHMDシステム100を示す。HMDシステム100は、ユーザの頭部に装着されるHMD110と、制御回路部120と、傾きセンサ130と、注視センサ140を備える。
HMD110は、非透過型の表示装置であるディスプレイ112と、センサ部114と、注視センサ140を含む。制御回路部120はディスプレイ112に右目用画像と左目用画像を表示することにより、両目の視差を利用した3次元画像を仮想空間として提供する。ディスプレイ112がユーザの眼前に配置されることによって、ユーザは仮想空間に没入できる。仮想空間は、背景やユーザが操作可能な各種オブジェクト、メニュー画像等を含む。
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていても良い。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
注視センサ140は、ユーザの右目および左目の視線が向けられる方向を検出するアイトラッキング機能を有する。注視センサ140は、右目用センサと左目用センサを備えていることが好ましく、それぞれが右目と左目の視線が向けられる方向を検出することにより、ユーザが注視する視線方向を検知する。注視センサ140はアイトラッキング機能を有する公知のセンサを採用することができ、例えば、右目及び左目に赤外光を照射し、角膜や虹彩からの反射光を取得することにより、眼球の回転角を求めることとしても良い。
制御回路部120は、HMD110に接続されるコンピュータであり、ディスプレイ112に仮想空間を提供し、当該仮想空間内に表示される各種オブジェクトを操作したり、各種メニュー画像等を表示・制御するように処理を実行する。制御回路部120は、そのような動作の実行を制御するプログラムを格納する。制御回路部120はHMD110に搭載されていなくてもよく、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部120は、一部の機能のみをHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。
傾きセンサ130は、HMD110の位置や動きに関する情報を検出する。傾きセンサ130は、センサ部114と、検知部132を含む。センサ部114は、複数の光源を含んでもよい。光源は、例えば赤外線を発するLEDである。検知部132は例えば赤外線センサであり、光源からの赤外線をHMD110の検知点として検知することで、ユーザの動きに応じたHMD110の現実空間内における角度に関する情報を経時的に検出する。そして、検知部132により検出された情報の経時的変化に基づいて、HMD110の角度の時間変化を決定し、HMD110の位置や動きに関する情報を検知することができる。
傾きセンサ130によって取得される角度に関する情報を、図2を参照して説明する。HMD110を装着したユーザの頭部を中心として、XYZ軸を規定する。ユーザが直立する垂直方向をY軸とし、Y軸と直交しディスプレイ112の中心とユーザを結ぶ前後方向をZ軸とし、Y軸およびZ軸と直交する横方向をX軸とする。そして各軸周りのHMD110の傾き角度θx(いわゆるピッチ角),θy(いわゆるヨー角),θz(いわゆるロール角)を検出し、それらの経時的な変化により、HMD110の位置や動きに関する情報を検知することができる。
傾きセンサ130は、ディスプレイ112の近くに固定されたセンサ部114と、検知部132の、一方のみから構成されてもよい。センサ部114が、地磁気センサ、加速度センサ、角速度(ジャイロ)センサであってもよく、これらの少なくとも1つを用いて、ユーザの頭部に装着されたHMD110(特に、ディスプレイ112)の傾きを検出する。これにより、HMD110の位置や動きに関する情報を検出することができる。例えば、角速度センサは、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検出し、各軸回りの角度(傾き)の時間変化を決定することができる。この場合には、検知部132は不要である。また、検知部132は光学カメラを含んで構成されても良い。この場合には、画像情報に基づいてHMD110の位置や動きに関する情報を検出することができ、センサ部114は不要である。
傾きセンサ130を用いてHMDの位置や動きに関する情報を検出する機能をポジション・トラッキングと称する。傾きセンサ130によるポジション・トラッキングと、仮想空間2内に配置される仮想カメラ1との関係を図3A,図3Bを参照して説明する。仮想カメラ1とセンサ130の位置関係を説明するために、以下ではセンサ130の位置は、検知部132を有する場合には検知部132の位置とし、検知部132を有しない場合にはセンサ部114の位置とする。図3Aは現実空間内の傾きセンサ130と仮想空間2の関係を示す3次元の模式図であり、図3Bは現実空間内のセンサ130と仮想空間2の関係をY方向から見た平面図である。仮想空間2の内部に仮想カメラ1が配置され、および仮想空間2の外部(現実空間)に傾きセンサ130が仮想的に配置される。
仮想空間2は、略正方形または略長方形の複数のメッシュ3を有する天球状に形成される。各メッシュは仮想空間2の空間情報が関連付けられており、この空間情報に基づいて後述する視界画像が形成され、視界領域が定義される。本実施形態では、図3Bに示すように、XZ面において、天球の中心点21が仮想カメラ1とセンサ130を結ぶ線上に常に配置されるように調整することが好ましい。例えば、HMDを装着したユーザが移動して仮想カメラ1の位置がX方向に移動した場合には、中心21が仮想カメラ1と傾きセンサ130の線分上に位置するように、仮想空間2の領域が変更される。
HMDシステム100はいずれかの要素にマイクを含むヘッドホンを備えていても良い。これにより、ユーザは仮想空間内の所定のオブジェクトに、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいても良い。また、ユーザが取得した電子メール等を表示させるための、通信機能等を含んでいてもよい。
図4は、HMDシステム100における仮想空間2の表示処理や、当該仮想空間2内に表示される各種メニュー表示やオブジェクトの操作を実現するための、制御回路部120の機能を示す図である。制御回路部120は、主に傾きセンサ130および注視センサ140からの入力に基づいて、ディスプレイ112への出力画像を制御する。
制御回路部120は、表示制御部200とオブジェクト制御部300とを備える。表示制御部200は、仮想空間画像生成部210と、HMD動作検出部220と、視線検知部230と、注視点特定部240と、視界領域決定部250と、視界画像生成部260と、空間情報格納部270とを含む。オブジェクト制御部300は、オブジェクト情報格納部310と、仮想カメラ情報格納部320と、オブジェクト特定部330と、比較部340と、描画部350と、を含む。
傾きセンサ130および注視センサ140は、表示制御部200およびオブジェクト制御部300と互いに通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。表示制御部200およびオブジェクト制御部300は、ディスプレイ112と通信可能に接続されており、有線または無線の通信インターフェースを介して接続され得る。空間情報格納部270、オブジェクト情報格納部310、および仮想カメラ情報格納部320は、傾きセンサ130や注視センサ140からの入力に対応した出力情報をディスプレイ112へ提供するための各種データを含む。
傾きセンサ130は、センサ部114により経時的に検知される角度情報や、検知部132により経時的に検知されるHMD110の角度情報に基づいて、HMD110の位置や動きに関する情報を、表示制御部200およびオブジェクト制御部300に出力する。
仮想空間画像生成部210は、空間情報格納部270からユーザが没入する仮想空間2に関する情報を読み出し、仮想空間画像を生成する。仮想空間画像はユーザの視線方向によらず所定のゲーム空間を構成するための360度パノラマ画像であり、実際にユーザが視認する視界画像よりも低画質に構成される。仮想空間画像は、例えば視界画像の30%程度のレンダリングレベルとされてもよく、例えば、視界画像を構成するポリゴン数を減少させることにより実現され得る。
HMD動作検知部220は、傾きセンサ130からの入力情報に基づいて、HMD110の動きを検出する。そして、仮想空間2内におけるHMD110の向きを規定する視野方向を検出する。そして、検出した視野方向を視界領域決定部250に出力する。
視線検知部230は、注視センサ140からの入力情報に基づいて、ユーザの右目および左目の視線が向けられる方向を検出する。そして、右目および左目の視線が向けられる方向に基づいて後述する視線方向を特定する。注視点特定部240は、注視センサ140からのユーザの視線情報に基づいて、ユーザが注視している注視点を特定する。視線検知部230および注視点特定部240は、視線方向および注視点に基づいて、注視範囲を特定する。注視範囲はユーザが注視する範囲であり、後述するように、視線方向と交差する面内に広がりを有する範囲として定義され得る。
図5に示すように、注視センサ140はユーザUの右目および左目の視線方向を検知する。ユーザUが近くを見ている場合には視線R1およびL1が検知され、両者の交点である注視点N1が特定される。また、ユーザが遠くを見ている場合には、視線R1およびL1よりZ方向とのなす角が小さい視線R2およびL2が特定される。注視点N1が特定されると、ユーザUの視線方向N0が特定される。視線方向N0はユーザUが両目により実際に視線が向けられている方向である。視線方向N0は、例えばユーザUの右目Rおよび左目Lの中心と中心点N1が通る直線の伸びる方向として定義される。
視界領域決定部250は、空間情報格納部270に格納された仮想空間情報と、傾きセンサ130および注視センサ140からの入力情報に基づいて、仮想空間2における仮想カメラ1の視界領域を決定する。視界画像生成部260は、当該視界領域に関する情報に基づいて、仮想空間を構成する360度パノラマの一部を、視界画像として生成する。視界画像はディスプレイ112に出力される。視界画像は左目用と右目用の2つの2次元画像を含み、これらがディスプレイ112に重畳されることにより、3次元画像としての仮想空間2がユーザに提供される。
図6A〜Cを参照して、視界領域決定部250で決定される、仮想空間2の天球面に沿った視界領域23について説明する。図5Aは、視界領域23を示す3次元の模式図であり、図6Bは視界領域23をX方向から見たYZ面図であり、図6Cは視界領域23をY方向から見たXZ面図である。図6Aに示すように、視界領域23は仮想空間画像22の一部を構成する。視界領域23は、後述するように、仮想空間画像22のうちユーザの視界を構成する部分である。視界領域23は基準視線5に基づいて定められ、基準視線5は仮想カメラ1の位置および方向に基づいて定められる。本実施形態では、基準視線5はHMD110の向きを規定する視野方向、または、注視センサ140により特定された視線方向N0の少なくとも一方に基づいて定義されることが好ましい。
視界領域23は、基準視線5と仮想空間画像22のYZ断面によって定義される範囲である第1領域24(図5B参照)と、基準視線5と仮想空間画像22のXZ断面によって定義される範囲である第2領域25(図5C参照)とを有する。第1領域24は、基準視線5を中心として極角αを含む範囲として設定される。第2領域25は、基準視線5を中心として方位角βを含む範囲として設定される。
視界画像生成部260は、予め構成された仮想空間画像22のうち、視界領域26に相当する領域を、仮想空間画像22より高画質な視界画像26として生成する。視界画像26は、ユーザが仮想空間2内において実際に視認する空間を構成する画像である。図7は視界領域23に基づいて視界画像26が生成される様子を示す図である。視界画像26は、視界領域23の周囲の所定領域を覆うように生成されることが好ましい。また、視界画像26は、仮想空間画像22より高画質な画像として生成されることが好ましい。具体的には、図7に示すように、仮想空間画像22を構成する画像より、視界画像26を構成する画像のポリゴン数を増加させることによってレンダリングレベルを向上させることによって高画質化してもよいし、仮想空間画像22にテクスチャマッピングを施すことによって高画質化してもよい。
オブジェクト制御部300では、オブジェクト情報格納部310に格納された仮想空間内のオブジェクト情報と、傾きセンサ130および注視センサ140からのユーザ指令に基づいて、操作対象となるオブジェクトを特定する。そして、操作対象オブジェクトへの所定のユーザ操作指令に基づいて、仮想カメラ情報格納部320に格納された仮想カメラ情報を調整する。調整された仮想カメラ情報を表示制御部200に出力し、視界画像が調整される。また、所定のユーザ操作指令に対応する操作を操作対象オブジェクトへ実施し、オブジェクト制御情報をディスプレイ112および表示制御部200に出力する。
オブジェクト制御部300は、オブジェクト特定部330と、比較部340と、描画部350と、を含む。オブジェクト特定部330は、視線検知部230および注視点特定部240によって特定された視線方向、または、注視範囲に基づいて、対象オブジェクトを特定する。比較部340は、当該対象オブジェクトと注視点の視線方向における位置座標を比較する。仮想空間2内における各オブジェクトの位置座標は、オブジェクト格納部310に格納されている。描画部350は、比較部340による比較結果に基づいて対象オブジェクトの描画レベルを決定し、当該情報を視界画像生成部260に送信することによって、所定の描画レベルで描画された対象オブジェクトがディスプレイ112に表示される。
なお、制御回路部120の各機能を実現するためのハードウェア要素は、CPU、メモリ、その他の集積回路で構成することができる。そして、メモリにロードされたソフトウェア要素としての各種プログラムによって各機能が実現される。したがって、これらの機能ブロックがハードウェア、ソフトウェア、又はそれらの組み合わせによって実現できることが当業者に理解される。
図8を参照して、仮想空間画像22および基準視線5に基づいて視界画像26を生成するための、HMDシステム100の処理フローを説明する。また、図9を参照して、注視点と対象オブジェクトの視線方向における位置に応じて、対象オブジェクトの描画レベルを決定するための、HMDシステム100の処理フローを説明する。当該視界画像生成処理は、HMD110(注視センサ140、傾きセンサ130)および制御回路部120の相互作用によって実現され得る。
まず、制御回路部120(仮想空間画像生成部210)はユーザが没入する仮想空間2を提供するために仮想空間画像22を生成する(S120−1)。ユーザからHMDに移動や傾きといった動作が入力されると(S110−1)、傾きセンサ130によってHMD110の位置や傾きが検知される(S130−1)。傾きセンサ130の検知情報は制御回路部120に送信され、HMD動作検出部220により、HMD110の位置情報や傾き情報が決定される。これにより、HMD110の位置情報や傾き情報に基づく視界方向が決定される(S120−2)。
注視センサ140がユーザの左右の目の眼球の動きを検出すると(S140−1)、当該情報が制御回路部120に送信さる。制御回路部120の視線方向検知部230が左右の目の視線が向けられる方向を特定すると、注視点特定部240がユーザの注視点を特定し、視線方向が特定される(S120−3)。
視界領域決定部250は、視界方向または視線方向に基づいて、基準視線5を特定する(S120−4)。視界領域決定部250は、基準視線5に基づいて視界領域23(第1領域24および第2領域25)を決定する(S120−5)。視界画像生成部260は、視界領域23に基づいて視界画像26を生成する(S120−6)。前述のように、視界画像26は仮想空間画像22のうち視界領域23に相当する領域を高画質化することによって生成される。HMD110は、視界画像26に関する情報を制御回路部120から受信して、ディスプレイ112に視界画像26を表示させる(S110−2)。
また、視線方向検知部230が左右の目の視線が向けられる方向を特定することによって視線方向が特定される(S120−3)、図9,図10に示すように、注視範囲N2が特定される(S220−1)。注視範囲N2はユーザが注視点G1を注視した際に主に視界に入る範囲であり、注視点N1および視線方向N0に基づいて特定される。注視範囲N2は視線方向N0に交差する面内に広がりを有する範囲として設定されており、本実施形態では、注視範囲N2は視線方向N0に交差する面内に広がりは、注視点N1に近いほど狭くなるように設定されている。
次に、ユーザの視線方向N0に基づいて、本実施形態において描画レベルが調整される対象オブジェクトを特定する。本実施形態では、注視範囲N2内に含まれるオブジェクトO1〜O3を対象オブジェクトとして特定する(S220−2)。オブジェクトO4は注視範囲N2外であって、視界画像26の領域内に配置されている。
対象オブジェクトO1〜O3の視線方向N0における位置座標を、オブジェクト格納部310を参照することによって特定する(S220−3)。さらに、当該位置座標を注視点N1と比較することにより、注視点N1と対象オブジェクトO1〜O3の視線方向N0における相対位置関係を特定する(S220−4)。本実施形態では、対象オブジェクトO1〜O3の視線方向N0における位置座標を特定するとともに、対象オブジェクトO1〜O3が視線方向N0における第1範囲d1,第2範囲d2,第3範囲d3のいずれに属するかを特定する。第1範囲d1は注視点N1を含む範囲であり、第2範囲d2は注視点N1に対し、視線方向N0において第1範囲d1より遠い範囲である。第3範囲d3は注視点N1に対し、視線方向N0において第2範囲d2より遠い範囲である。
そして、注視点N1と対象オブジェクトO1〜O3の視線方向N0における相対位置関係に応じて、各オブジェクトO1〜O3の描画レベルを決定する(S220−5)。本実施形態では、第1範囲d1に配置されたオブジェクトO1を最も描画レベルの高い第1レベルで描画し、第2範囲d2に配置されたオブジェクトO2は第1レベルよりも描画レベルの低い第2レベルで描画し、第3範囲d3に配置されたオブジェクトO3は第2レベルよりも描画レベルの低い第3レベルで描画する。また、注視範囲外に配置されたオブジェクトO4は、第3レベルより描画レベルの低い第4レベルで描画される。なお、第4レベルはユーザの視界領域23より外の仮想空間画像22の描画レベルよりも、高い描画レベルとされている。描画レベルの調整は、前述のように画像のポリゴン数を増減させることによって調整してもよいし、テクスチャマッピングを施す際に画質を調整してもよい。
このようにして描画された各オブジェクトに関する情報は描画部350から視界画像生成部260へ送信され、背景となる視界画像26に重畳されることによって、当該オブジェクトを含む視界画像26が生成される(S220−6)。新しい視界画像26はHMD110のディスプレイ112に表示され、仮想空間2としてユーザに提供される。
このように、本実施形態のHMD制御方法によれば、ユーザが注視する注視点の近くにオブジェクトが配置されているか否かに応じて、当該オブジェクトの描画レベルを決定するので、注視点の近くに配置されたオブジェクトに描画負荷を集中させることが可能となる。これにより、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。また、注視点の視線方向における位置に応じて所定の範囲(第1〜第3範囲)を設定し、当該範囲に応じた描画レベルが設定されるので、レンダリング負荷をさらに軽減し得る。また、ユーザの視線方向に基づいて、当該視線方向に交差する面内に広がりを有する注視範囲を設定することにより、描画レベルが決定される対象オブジェクトをさらに限定し得る。また、注視範囲をさらに限定的に設定することにより、描画レベルが決定される対象オブジェクトをさらに限定し得る。これにより、三次元仮想空間画像を提供する場合のレンダリング負荷を軽減し得る。さらに、注視範囲外に配置されたオブジェクトの描画レベルを低く設定することにより、レンダリング負荷をさらに軽減し得る。
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、120…制御回路部、130…傾きセンサ、132…検知部、140…注視センサ、200…表示制御部、300…オブジェクト制御部、1…仮想カメラ、2…仮想空間、5…基準視線、22…仮想空間画像、23…視界領域、26…視界画像、G0…注視点、G1…注視範囲、N0…視線方向、d1…第1範囲、d2…第2範囲、d3…第3範囲。

Claims (6)

  1. ユーザが没入する仮想空間をコンピュータに提供させる方法であって、
    前記ユーザが没入する仮想空間を構成する仮想空間画像のうち、前記ユーザが視認する視界画像を生成するステップと、
    前記ユーザの視線方向に基づいて、対象オブジェクトを特定するステップと、
    前記ユーザが注視する注視点を検出するステップと、
    前記注視点と前記対象オブジェクトの前記視線方向における位置に応じて、前記対象オブジェクトの描画レベルを決定するステップと、
    を含む方法。
  2. 前記注視点を含む前記視線方向の第1範囲と、
    前記注視点に対し、前記視線方向において前記第1範囲より遠い第2範囲と、を特定するステップをさらに含み、
    前記対象オブジェクトの前記位置が前記第1範囲に含まれる場合には、前記対象オブジェクトを第1レベルで描画し、
    前記対象オブジェクトの前記位置が前記第2範囲に含まれる場合には、前記対象オブジェクトを前記第1レベルより描画レベルの低い第2レベルで描画するように描画レベルを決定する、
    請求項1の方法。
  3. 前記視線方向に基づいて、前記ユーザが注視する範囲であって、前記視線方向に交差する面内に広がりを有する注視範囲を特定するステップをさらに備え、
    前記注視範囲内に配置されたオブジェクトを前記対象オブジェクトとして特定する、
    請求項1または2の方法。
  4. 前記注視範囲の前記視線方向に交差する面内における広がりは、前記注視点に近いほど狭い、請求項3の方法。
  5. 前記注視点を含む前記視線方向の第1範囲と、
    前記注視点に対し、前記視線方向において前記第1範囲より遠い第2範囲と、を特定するステップをさらに含み、
    前記対象オブジェクトの前記位置が前記第1範囲に含まれる場合には、前記対象オブジェクトを第1レベルで描画し、
    前記対象オブジェクトの前記位置が前記第2範囲に含まれる場合には、前記対象オブジェクトを前記第1レベルより描画レベルの低い第2レベルで描画し、
    前記注視範囲外に配置されたオブジェクトは、前記第1レベルおよび前記第2レベルより描画レベルの低い第3レベルで描画するように描画レベルを決定する、
    請求項3または4の方法。
  6. 請求項1〜5のいずれかの方法をコンピュータに実行させるプログラム。


JP2015155420A 2015-08-05 2015-08-05 方法、および、プログラム Pending JP2017033465A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015155420A JP2017033465A (ja) 2015-08-05 2015-08-05 方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015155420A JP2017033465A (ja) 2015-08-05 2015-08-05 方法、および、プログラム

Publications (1)

Publication Number Publication Date
JP2017033465A true JP2017033465A (ja) 2017-02-09

Family

ID=57988351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015155420A Pending JP2017033465A (ja) 2015-08-05 2015-08-05 方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP2017033465A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019186622A1 (ja) * 2018-03-26 2019-10-03 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019186622A1 (ja) * 2018-03-26 2019-10-03 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Similar Documents

Publication Publication Date Title
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP5961736B1 (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP5981006B1 (ja) 視線誘導のためのコンピュータ・プログラム
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6058184B1 (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP5914739B1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
US10394319B2 (en) Method of displaying an image, and system therefor
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
JP6121496B2 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP6433862B2 (ja) ヘッドマウントディスプレイシステム制御プログラム、コンピュータ及び方法
JP2017059212A (ja) 視線誘導のためのコンピュータ・プログラム
JP6598575B2 (ja) ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP2017033465A (ja) 方法、および、プログラム
JP2018195172A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2018109940A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2017049738A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP6121495B2 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP2019021347A (ja) ヘッドマウントディスプレイシステム制御プログラム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP2017162443A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6448478B2 (ja) ヘッドマウントディスプレイを制御するプログラム。
JP6216851B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6205047B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム