JP6097377B1 - 画像表示方法及びプログラム - Google Patents
画像表示方法及びプログラム Download PDFInfo
- Publication number
- JP6097377B1 JP6097377B1 JP2015231462A JP2015231462A JP6097377B1 JP 6097377 B1 JP6097377 B1 JP 6097377B1 JP 2015231462 A JP2015231462 A JP 2015231462A JP 2015231462 A JP2015231462 A JP 2015231462A JP 6097377 B1 JP6097377 B1 JP 6097377B1
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- virtual
- virtual camera
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Abstract
【課題】HMDの動きに連動しない視覚的効果を受けることによる映像酔いを低減する【解決手段】ユーザに関連付けられた一人称視点とは異なる三人称視点を有する仮想空間内の仮想カメラにより撮影した仮想カメラ空間画像を生成するステップと、仮想カメラ空間画像を描画した表示オブジェクトを仮想空間内に配置した視界画像を生成するステップと、生成された視界画像をヘッドマウントディスプレイに出力するステップとを含む方法により、ヘッドマウントディスプレイに仮想空間画像を表示する。さらに、視界領域内に複数の表示オブジェクトが存在する場合には、表示オブジェクトごとに更新タイミングを設定し、設定された更新タイミングで各表示オブジェクトを更新する。【選択図】図7
Description
本発明は画像表示方法、及びプログラムに関する。より詳細には、本発明は、仮想空間の画像を、ヘッドマウントディスプレイ(Head−Mounted Display:HMD)へ表示する方法、及びプログラムに関するものである。
特許文献1には、HMDにヘッドトラッキング機能を持たせて、HMDを装着したユーザの頭部の動きと連動した画像を、HMDに表示することが開示されている。
しかしながら、特許文献1に開示されたHMDシステムでは、HMDトラッキングとHMDに表示される表示画像の追随がよくない場合に、映像酔い(所謂VR(Virtual Reality)酔い)を生ずる可能性があった。
上述した課題を解決するために、本発明の一態様は、ユーザが装着するヘッドマウントディスプレイに仮想空間画像を表示する方法であって、
前記ユーザに関連付けられた一人称視点とは異なる三人称視点を有する仮想空間内の仮想カメラ(仮想カメラ2)により撮影した仮想カメラ空間画像を生成するステップと、
前記仮想カメラ空間画像を前記仮想空間内の表示オブジェクトへ描画するステップと、
前記表示オブジェクトを前記仮想空間内に配置した視界画像を生成するステップと、
前記視界画像をヘッドマウントディスプレイに出力するステップと、
を含む方法に関する。
前記ユーザに関連付けられた一人称視点とは異なる三人称視点を有する仮想空間内の仮想カメラ(仮想カメラ2)により撮影した仮想カメラ空間画像を生成するステップと、
前記仮想カメラ空間画像を前記仮想空間内の表示オブジェクトへ描画するステップと、
前記表示オブジェクトを前記仮想空間内に配置した視界画像を生成するステップと、
前記視界画像をヘッドマウントディスプレイに出力するステップと、
を含む方法に関する。
本発明によれば、HMDの動きに連動しない視覚的効果を受けることによる映像酔いを低減することができる。
最初に、本発明の一実施形態の内容を列記して説明する。本発明の一実施形態による画像表示方法、及びプログラムは、以下のような構成を備える。
(項目1)
ユーザが装着するヘッドマウントディスプレイに仮想空間画像を表示する方法であって、
前記ユーザに関連付けられた一人称視点とは異なる三人称視点を有する仮想空間内の仮想カメラにより撮影した仮想カメラ空間画像を生成するステップと、
前記仮想カメラ空間画像を前記仮想空間内の表示オブジェクトへ描画するステップと、
前記表示オブジェクトを前記仮想空間内に配置した視界画像を生成するステップと、
前記視界画像をヘッドマウントディスプレイに出力するステップと、
を含む方法。
(項目2)
前記仮想カメラ空間画像を描画する所定のタイミングを決定し、
前記所定のタイミングで前記仮想カメラ空間画像を表示オブジェクトに描画するステップと、
をさらに備える、項目1に記載の方法。
(項目3)
前記仮想カメラ空間画像が前記表示オブジェクトへ描画する所定の場面に対応すると判定した場合に、前記仮想カメラ空間画像を前記表示オブジェクトに描画する、項目1に記載の方法。
(項目4)
前記仮想カメラは複数存在し、それぞれ前記仮想空間内の異なる位置に配置され、前記表示オブジェクトは複数存在し、それぞれ前記仮想空間内の異なる位置に配置され、
複数の表示オブジェクトはそれぞれ、複数の仮想カメラのうち1つの仮想カメラに対応する、項目1に記載の方法。
(項目5)
前記ヘッドマウントディスプレイを装着しているユーザの基準視線を特定するステップと、
前記基準視線に基づいて、前記ユーザの視界領域を決定するステップを更に含み、
前記仮想カメラ空間画像は、前記複数の表示オブジェクトのうち前記視界領域内の表示オブジェクトに描画され、前記複数の表示オブジェクトのうち前記視界領域外の表示オブジェクトに描画されない、項目4に記載の方法。
(項目6)
前記視界領域内に複数の表示オブジェクトが存在する場合に、該視界領域内の複数の表示オブジェクトのそれぞれを更新するタイミングを異ならせるステップと
を更に備える、項目5に記載の方法。
(項目7)
前記ユーザの基準視線は、前記ヘッドマウントディスプレイの傾き、前記ヘッドマウントディスプレイに含まれる注視センサにより特定されたユーザの視線方向のいずれか又は両方に基づいて特定される、項目5に記載の方法。
(項目8)
項目1〜7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
[本発明の一実施形態の詳細]
本発明の一実施形態に係るヘッドマウントディスプレイシステムを制御するプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
〔HMDシステム100の概要〕
図1は、本実施形態にかかるHMD110を備えるHMDシステム100を示す。HMDシステム100は、ユーザ150の頭部に装着されるHMD110と、制御回路部120と、トラッキングセンサ132とを備える。
(項目1)
ユーザが装着するヘッドマウントディスプレイに仮想空間画像を表示する方法であって、
前記ユーザに関連付けられた一人称視点とは異なる三人称視点を有する仮想空間内の仮想カメラにより撮影した仮想カメラ空間画像を生成するステップと、
前記仮想カメラ空間画像を前記仮想空間内の表示オブジェクトへ描画するステップと、
前記表示オブジェクトを前記仮想空間内に配置した視界画像を生成するステップと、
前記視界画像をヘッドマウントディスプレイに出力するステップと、
を含む方法。
(項目2)
前記仮想カメラ空間画像を描画する所定のタイミングを決定し、
前記所定のタイミングで前記仮想カメラ空間画像を表示オブジェクトに描画するステップと、
をさらに備える、項目1に記載の方法。
(項目3)
前記仮想カメラ空間画像が前記表示オブジェクトへ描画する所定の場面に対応すると判定した場合に、前記仮想カメラ空間画像を前記表示オブジェクトに描画する、項目1に記載の方法。
(項目4)
前記仮想カメラは複数存在し、それぞれ前記仮想空間内の異なる位置に配置され、前記表示オブジェクトは複数存在し、それぞれ前記仮想空間内の異なる位置に配置され、
複数の表示オブジェクトはそれぞれ、複数の仮想カメラのうち1つの仮想カメラに対応する、項目1に記載の方法。
(項目5)
前記ヘッドマウントディスプレイを装着しているユーザの基準視線を特定するステップと、
前記基準視線に基づいて、前記ユーザの視界領域を決定するステップを更に含み、
前記仮想カメラ空間画像は、前記複数の表示オブジェクトのうち前記視界領域内の表示オブジェクトに描画され、前記複数の表示オブジェクトのうち前記視界領域外の表示オブジェクトに描画されない、項目4に記載の方法。
(項目6)
前記視界領域内に複数の表示オブジェクトが存在する場合に、該視界領域内の複数の表示オブジェクトのそれぞれを更新するタイミングを異ならせるステップと
を更に備える、項目5に記載の方法。
(項目7)
前記ユーザの基準視線は、前記ヘッドマウントディスプレイの傾き、前記ヘッドマウントディスプレイに含まれる注視センサにより特定されたユーザの視線方向のいずれか又は両方に基づいて特定される、項目5に記載の方法。
(項目8)
項目1〜7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
[本発明の一実施形態の詳細]
本発明の一実施形態に係るヘッドマウントディスプレイシステムを制御するプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
〔HMDシステム100の概要〕
図1は、本実施形態にかかるHMD110を備えるHMDシステム100を示す。HMDシステム100は、ユーザ150の頭部に装着されるHMD110と、制御回路部120と、トラッキングセンサ132とを備える。
HMD110は、非透過型の表示装置であるディスプレイ112と、センサ部114と、注視センサ116を含む。制御回路部120は、ディスプレイ112に右目用画像と左目用画像を表示することにより、両目の視差を利用した3次元画像を仮想空間として提供する。ディスプレイ112がユーザ150の眼前に配置されることによって、ユーザ150は仮想空間に没入できる。仮想空間は、背景やユーザが操作可能な各種オブジェクト、メニュー画像等を含む。
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていても良い。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
制御回路部120は、HMD110に接続されるコンピュータである。図2に示すように、制御回路部120は、処理回路202と、メモリ204と、入出力インターフェース206と、通信インターフェース208を含む。処理回路202と、メモリ204と、入出力インターフェース206と、通信インターフェース208は、データ伝送路として用いられるバスで互いに接続される。
処理回路202は、CPU(Central Processing Unit)やMPU(Micro−processing unit)、GPU(Graphics Processing Unit)といった各種処理回路等を含んで構成され、制御回路部120およびHMDシステム100全体を制御する機能を有する。
メモリ204はROM(Read Only Memory)やRAM(Random Access Memory)等を含んで構成され、処理回路が使用するプログラムや演算パラメータなどの制御用データを一時的に記憶する。メモリは、また、フラッシュメモリやHDD(Hard Disc Drive)などの不揮発性記憶装置を含んで構成され、各種画像やオブジェクトに関するデータ、シミュレーションプログラムやユーザの認証プログラムが格納され、さらに、各種データを管理するためのテーブルを含むデータベースが構築されていてもよい。
入出力インターフェース206は、USB(Universal Serial Bus)端子やDVI(Digital Visual Interface)端子やHDMI(登録商標)(High−Definition Multimedia Interface)端子等の各種有線接続端子や、無線接続のための各種処理回路を含んで構成され、HMD110や動きセンサ130を含む各種センサ、外部コントローラ等を接続する。
通信インターフェース208は、ネットワークNWを介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んで構成され、LAN(Local Area Network)やインターネットを介して通信するための各種通信規格・プロトコルに適合するように構成されている。
制御回路部120は、メモリに格納された所定のアプリケーションを実行することにより、ディスプレイ112に仮想空間を提示する。また、メモリには、当該仮想空間内に表示される各種オブジェクトを操作したり、各種メニュー画像等を表示・制御したりするためのプログラムが格納される。制御回路部120はHMD110に搭載されていなくてもよく、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部120は、一部の機能のみをHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。
動きセンサ130は、HMD110の位置や傾きに関する情報を検出する。動きセンサ130は、センサ部114と、トラッキングセンサ132を含む。センサ部114は、複数の光源を含んでもよい。光源は、例えば赤外線を発するLEDである。トラッキングセンサ132は例えば赤外線センサであり、光源からの赤外線をHMD110の検知点として検知することで、ユーザ150の動きに応じたHMD110の現実空間内における位置や角度に関する情報を経時的に検出する。そして、トラッキングセンサ132により検出された情報の経時的変化に基づいて、HMD110の位置や角度の時間変化を決定し、HMD110の動きに関する情報を検知することができる。
動きセンサ130によって取得される位置や傾きに関する情報を、図3を参照して説明する。HMD110を装着したユーザ150の頭部を中心として、3次元座標系を規定する。ユーザが直立する垂直方向をヨー方向とし、ヨー方向と直交しディスプレイ112の中心とユーザを結ぶ前後方向をロール方向とし、ヨー方向およびロール方向と直交する横方向をピッチ方向とする。これにより、ユーザの3次元空間内における位置の経時変化が取得される。また、ピッチ方向周りのHMD110の傾き角度としてのピッチ角、ヨー方向周りのHMD110の傾き角度としてのヨー角、ロール方向周りのHMD110の傾き角度としてのロール角が取得される。
動きセンサ130は、ディスプレイ112の近くに固定されたセンサ部114と、トラッキングセンサ132の一方から構成されてもよい。センサ部114が、地磁気センサ、加速度センサ、ジャイロセンサであってもよく、これらの少なくとも1つを用いて、ユーザ150の頭部に装着されたHMD110(特に、ディスプレイ112)の位置および傾きを検出する。これにより、HMD110の動きに関する情報を検出することができる。例えば、角速度センサは、HMD110の動きに応じて、HMD110の3軸回りの角速度を経時的に検出し、各軸回りの角度の時間変化を決定することができる。この場合には、トラッキングセンサ132はなくてもよい。また、トラッキングセンサ132は光学カメラを含んで構成されても良い。この場合には、画像情報に基づいてHMD110の動きに関する情報を検出することができ、センサ部114はなくてもよい。
注視センサ116は、ユーザ150の右目および左目の視線が向けられる方向を検出するアイトラッキング機能を有する。注視センサ116は、右目用センサと左目用センサを備えていることが好ましく、それぞれが右目と左目の視線が向けられる方向を検出することにより、ユーザ150が注視する視線方向を検知する。注視センサ116はアイトラッキング機能を有する公知のセンサを採用することができ、例えば、右目及び左目に赤外光を照射し、角膜や虹彩からの反射光を取得することにより、眼球の回転角を求めることとしても良い。
注視センサ116はユーザ150の右目および左目の視線方向を検知し、両者の交点である注視点を特定する。ユーザが近くを見ている場合に特定される注視点は、ユーザが遠くを見ている場合に特定される注視点よりもユーザに近い。注視点が特定されると、ユーザ150の視線方向が特定される。視線方向はユーザ150が両目により実際に視線が向けられている方向である。視線方向は、例えばユーザの右目および左目の中心と、注視点が通る直線の伸びる方向として定義される。
〔一実施形態の説明〕
図4は、本発明の一実施形態に係る仮想空間の一例を示すXYZ空間図である。図4においてXZ平面は地表面を表し、Y軸は高さ方向に延びている。図4に示すように仮想空間6は、中心3を中心として天球状に形成される。仮想空間6内には仮想カメラ1及び仮想カメラ2が配置されており、それぞれ仮想空間6内の画像を撮影する。仮想カメラ1の動きは、動きセンサ130の動きに対応付けられており、動きセンサ130が動くことによって、仮想カメラ1により撮影される画像が変化する。仮想カメラ1は、ユーザ150の一人称視点、またはユーザのアバターに関連付けられた視点を有する。一方、仮想カメラ2は仮想カメラ1とは異なる仮想空間内の任意の位置に配置され、ユーザに関連付けられた一人称視点とは異なる三人称視点を有する。
〔一実施形態の説明〕
図4は、本発明の一実施形態に係る仮想空間の一例を示すXYZ空間図である。図4においてXZ平面は地表面を表し、Y軸は高さ方向に延びている。図4に示すように仮想空間6は、中心3を中心として天球状に形成される。仮想空間6内には仮想カメラ1及び仮想カメラ2が配置されており、それぞれ仮想空間6内の画像を撮影する。仮想カメラ1の動きは、動きセンサ130の動きに対応付けられており、動きセンサ130が動くことによって、仮想カメラ1により撮影される画像が変化する。仮想カメラ1は、ユーザ150の一人称視点、またはユーザのアバターに関連付けられた視点を有する。一方、仮想カメラ2は仮想カメラ1とは異なる仮想空間内の任意の位置に配置され、ユーザに関連付けられた一人称視点とは異なる三人称視点を有する。
図4において、仮想カメラ1は基準視線4に基づく視界領域5内の視界画像8を撮影しており、仮想カメラ2は第2仮想カメラ空間画像7を撮影する。第2仮想カメラ空間画像7は、例えば仮想空間6内でサッカーゲームを行っているキャラクタ9とボールを含む画像である。視界画像8には、第2仮想カメラ空間画像7を描画した表示オブジェクト10が配置される。視界画像8の具体的な生成方法については後述する。
次に、図4を参照して、動きセンサ130と、仮想空間6内に配置される仮想カメラ1との関係を説明する。仮想カメラ1と動きセンサ130の位置関係を説明するために、以下では動きセンサ130の位置は、トラッキングセンサ132を有する場合にはトラッキングセンサ132の位置とし、トラッキングセンサ132を有しない場合にはセンサ部114の位置とする。
本実施形態では、XZ面において、天球の中心3が仮想カメラ1とセンサ130を結ぶ線上に常に配置されるように調整することが好ましい。例えば、仮想カメラ1が常に中心3に配置されてもよい。また、HMD110を装着したユーザ150が移動して仮想カメラ1の位置がX方向に移動した場合に、中心3が仮想カメラ1と動きセンサ130の延長線上に位置するように、仮想空間6の領域が変更されてもよい。これらの場合には、仮想空間6における仮想カメラ1の位置は固定され、傾きのみが変化する。一方、動きセンサ130の任意の方向への移動に連動して仮想カメラ1の位置を移動させるようにすれば、仮想空間6における仮想カメラ1の位置は可変に設定される。
図5は、HMDシステム100における仮想空間6の表示処理や、当該仮想空間6内に表示される表示オブジェクトの描画を行うための、制御回路部120の機能を示すブロック図である。制御回路部120は、主に動きセンサ130、注視センサ116からの入力に基づいて、ディスプレイ112への出力画像を制御する。
制御回路部120は、表示制御部200と、オブジェクト制御部300と、記憶部400を備える。表示制御部200はHMD動作検知部210と、視線検知部220と、基準視線特定部230と、視界領域決定部240と、視界画像生成部250とを含む。オブジェクト制御部300は、第2仮想カメラ画像取得部310と、オブジェクト特定部320と、更新タイミング設定部330と、描画タイミング決定部340と、オブジェクト描画部350とを含む。記憶部400は、空間情報格納部410と、画像格納部420とを含む。さらに、記憶部400は、動きセンサ130や注視センサ116からの入力に対応した出力情報をディスプレイ112へ提供するための演算に必要な各種データを含む。なお、記憶部400は図2に示すメモリ204に対応する。
まず、図4〜図6を参照して、仮想カメラ1に対応する視界領域5を決定するための処理フローを説明する。仮想空間6は、HMD110、注視センサ116、動きセンサ130、および制御回路部120の相互作用によって提供され得る。
まず、HMD動作検出部210は、動きセンサ130によって検知されたHMD110の位置情報や傾き情報を取得し、該HMD110の位置情報や傾き情報に基づいて、ユーザ150の視界方向を決定する(ステップS1)。
次に、視線検知部220は、注視センサ116によって検出されたユーザ150の左右の眼球の動きに関する情報を取得し、該ユーザの眼球の動きに関する情報に基づいてユーザの視線方向を特定する(ステップS2)。
次に、基準視線特定部230は、HMD110の傾きにより特定された視界方向、及び/又はユーザ150の視線方向に基づいて基準視線4を特定する(ステップS3)。例えば、ユーザ150の右目及び左目の中心と、視界方向に位置するディスプレイ112の中心とを結ぶ直線を基準視線4として特定する。また、例えば、注視センサ140により特定されたユーザの視線方向を基準視線4として特定する。
次に、視界領域決定部240は、基準視線4に基づいて、仮想空間6における仮想カメラ1の視界領域5を決定する(ステップS4)。視界領域5は、基準視線4と仮想空間6のYZ断面によって定義される第1領域と、基準視線4と仮想空間6のXZ断面によって定義される第2領域とを有する。第1領域は、基準視線4を中心として所定の極角を含む範囲として設定され、第2領域は、基準視線4を中心として所定の方位角を含む範囲として設定される。図4に示すように、仮想カメラ1の視界領域5は仮想空間6のうちユーザ150の視界を構成する部分であり、HMD110の傾き、及び/またはユーザ150の視線方向などに対応付けられる。
次に、図4、図5、及び図7を参照して、仮想カメラ2により撮影された画像を用いて、視界領域5内の視界画像8を生成するための処理フローを説明する。
まず、第2仮想カメラ画像生成部310は、仮想カメラ2により撮影された第2仮想カメラ空間画像7を生成する。(ステップS5)。仮想カメラ2は、仮想空間で行われているアプリケーション(例えば、サッカーゲーム)の画像/映像を三人称視点で撮影する。
まず、第2仮想カメラ画像生成部310は、仮想カメラ2により撮影された第2仮想カメラ空間画像7を生成する。(ステップS5)。仮想カメラ2は、仮想空間で行われているアプリケーション(例えば、サッカーゲーム)の画像/映像を三人称視点で撮影する。
そして、画像格納部420は、生成された第2仮想カメラ空間画像7を格納する。画像格納部420は、メモリ負荷を低減するために、撮影された第2仮想カメラ空間画像を所定期間のみ記憶し、所定期間経過後に当該画像を順次削除してもよい。画像格納部420は、仮想カメラ2が複数の場合は、複数の仮想カメラ毎に撮影した画像をそれぞれ格納する。
画像格納部420は、また、所定の場面の第2仮想カメラ空間画像、例えば、サッカーゲームでキャラクタ9がゴールを決める直前から、キャラクタ9がポジションに戻っていくまでの期間に対応する場面のリプレイ画像のみを格納してもよい。後述するオブジェクト描画部350が格納したリプレイ画像を描画すべきと判定しなかった場合に、画像格納部420は該画像を順次メモリから削除してもよい。
次に、オブジェクト特定部320は、ステップS4にて決定された視界領域5に基づいて、視界領域5内の表示オブジェクト10を特定する(ステップS6)。表示オブジェクト10は、仮想カメラ2により撮影された画像を描画する仮想空間内のディスプレイ用オブジェクトであり、仮想空間6内の任意の位置に配置されている。
次に、オブジェクト特定部320は視界領域5内に表示オブジェクト10が複数存在するかを判定する(ステップS7)。視界領域5内に表示オブジェクトが複数存在しない場合、ステップS9へ進む。一方、視界領域5内に表示オブジェクトが複数存在する場合、更新タイミング設定部330は表示オブジェクト毎に更新タイミングを設定する(ステップS8)。
図8は、仮想空間6内の異なる位置に配置されている複数の表示オブジェクト10(1)〜(5)と視界領域5との関係を示す。複数の表示オブジェクトは、仮想空間内の異なる位置に配置されている複数の仮想カメラ2のうち1つの仮想カメラ2にそれぞれ対応づけられる。図8に示すように、表示オブジェクト10(1)は全体が視界領域5内に配置され、表示オブジェクト10(2)及び(3)はそれぞれ一部(a)のみが視界領域5内に配置される。表示オブジェクト10(4)、(5)は視界領域外に存在する。なお、複数の表示オブジェクトに1つの仮想カメラ2を対応付けてもよいし、1つの表示オブジェクトに複数の仮想カメラ2を対応付けてもよい。
図9は、表示オブジェクト毎に設定される更新タイミングを例示する図である。更新タイミング設定部330は、表示オブジェクトの少なくとも一部が視界領域5内に入っていれば、該表示オブジェクトを更新対象として、更新タイミングを設定する。例えば、更新タイミング設定部330は、視界領域5内の表示オブジェクト10(1)〜(3)を更新対象として、更新タイミングを設定する。そして、更新タイミング設定部330は、例えば、表示オブジェクト10(1)の更新タイミングをフレーム1、4に、表示オブジェクト10(2)の更新タイミングをフレーム2、5に、表示オブジェクト10(3)の更新タイミングをフレーム3、6にそれぞれ設定する。視界領域5内の複数の表示オブジェクト10(1)〜(3)は同時に更新されるのではなく、フレーム毎に例えば1つの表示オブジェクトを更新されるよう更新タイミングが設定される。視界領域5外に存在する表示オブジェクト10(4)、(5)の更新タイミングは設定されない。
次に、描画タイミング決定部340は、第2仮想カメラ空間画像7を表示オブジェクト10へ描画する所定のタイミングを決定する(ステップS9)。描画タイミング決定部340は、例えば、サッカーゲームが進行されている場合には、選手キャラクタがゴールを決めた後、当該選手キャラクタがポジションに戻っていくときを、第2仮想カメラ空間画像7を表示オブジェクト10へ描画する所定のタイミングとして決定する。第2仮想カメラ空間画像7は、所定のタイミングから表示オブジェクト10へ描画される。これにより、第2仮想カメラ空間画像7が表示オブジェクト10へ描画される期間が短くなり、表示オブジェクト10の描画処理に要する負荷を低減することができる。なお、描画タイミング決定部340は、第2仮想カメラ空間画像7を常に表示オブジェクト10へ描画してもよい。
そして、描画タイミング決定部340が、第2仮想カメラ空間画像7を描画する所定のタイミングを決定すると、オブジェクト描画部350は、画像格納部420から第2仮想カメラ空間画像7を読み出し、該所定のタイミングで表示オブジェクト10へ第2仮想カメラ空間画像7を描画する(ステップS10)。このとき、オブジェクト描画部350は、ステップS6にて特定された視界領域5内の表示オブジェクト10のみ描画し、視界領域5外の表示オブジェクトは描画しない。
また、オブジェクト描画部350は、表示オブジェクトへ描画する所定の場面を判定してもよい。オブジェクト描画部350は、画像格納部420から読み出しした第2カメラ仮想空間画像のうち、描画する所定の場面、例えば、ゴールシーンの所定時間前からゴールを決めた所定時間後までの場面に対応する画像を描画する。
視界領域5内に複数の表示オブジェクト10が存在する場合には、オブジェクト描画部350は、仮想カメラ2により撮影された第2仮想カメラ空間画像をそれぞれ、対応する表示オブジェクト10に描画する。このとき、図8に示すように、オブジェクト描画部350は、視界領域5内の表示オブジェクト10(2)、(3)の一部(a)へ第2仮想カメラ空間画像を描画してもよい。これにより描画処理に要する負荷を低減することができる。さらに、オブジェクト描画部350は、ステップS8にて設定された更新タイミングで、視界領域5内に複数の表示オブジェクトをそれぞれ更新する。1フレームで更新する表示オブジェクトの数を減らし、複数の表示オブジェクトのそれぞれを更新するタイミングを異ならせることにより、1回の更新に要する描画処理負荷を低減することができる。
そして、視界画像生成部250は、空間情報格納部410を参照して、視界領域5に対応する視界画像8を生成する(ステップS11)。空間情報格納部410は、仮想空間6の3次元空間画像を格納する。視界画像生成部250は、視界領域5内に存在する表示オブジェクトを仮想空間内に配置した視界画像8を生成する。
そして、HMD110は、視界画像8に関する情報を制御回路部120から受信して、ディスプレイ112に視界画像8を出力し、表示させる(ステップS12)。視界画像は左目用と右目用の2つの2次元画像を含み、これらがディスプレイ112に重畳されることにより、3次元画像としての仮想空間6がユーザ150に提供される。
図10は、HMDを装着したユーザ150の視界領域に表示される画像の一例である。図10においては、基準視線に基づいて設定される視界領域5内に、視界画像8が含まれている。視界画像8には1つの表示オブジェクト10が配置されている。表示オブジェクト10は、三人称視点の仮想カメラ2で撮影された第2仮想カメラ空間画像7を描画する。本実施形態においては、HMDを装着しているユーザ150が頭部又は視線を動かすと、ユーザの頭部の動き又は視線の動きに連動して、視界画像8が変更される。視界画像8は、第2仮想カメラ空間画像7で構成されず、第2仮想カメラ空間画像7を描画する表示オブジェクト10を含んで構成される。本発明においては、仮想空間内に配置された表示オブジェクト10に第2仮想カメラ2空間画像を描画する。従って、HMDを装着したユーザは、HMDの動きに連動しない三人称視点の第2仮想カメラ空間画像7で全体が構成される画像を視認しない。本発明によると、HMDの動きに連動しない仮想空間画像を視認することにより生じる映像酔いを低減することができる。
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、116…注視センサ、120…制御回路部、130…動きセンサ、132…トラッキングセンサ、200…表示制御部、300…オブジェクト制御部、400…記憶部、1…仮想カメラ1、2…仮想カメラ2、4…基準視線、5…視界領域、6…仮想空間、7…第2仮想カメラ空間画像、8…視界画像、9…キャラクタ、10…表示オブジェクト
Claims (8)
- ユーザが装着するヘッドマウントディスプレイに仮想空間画像を表示する方法であって、
前記ユーザに関連付けられた一人称視点とは異なる三人称視点を有する仮想空間内の仮想カメラにより撮影した仮想カメラ空間画像を生成するステップと、
前記仮想カメラ空間画像を前記ユーザに一人称視点として関連付けられた仮想空間内の表示オブジェクトへ描画するステップと、
前記表示オブジェクトを前記仮想空間内に配置した視界画像を生成するステップと、
前記視界画像をヘッドマウントディスプレイに出力するステップと、
を含む方法。 - 前記仮想カメラ空間画像を描画する所定のタイミングを決定し、
前記所定のタイミングで前記仮想カメラ空間画像を表示オブジェクトに描画するステップと、
をさらに備える、請求項1に記載の方法。 - 前記仮想カメラ空間画像が前記表示オブジェクトへ描画する所定の場面に対応すると判定した場合に、前記仮想カメラ空間画像を前記表示オブジェクトに描画する、請求項1に記載の方法。
- 前記仮想カメラは複数存在し、それぞれ前記仮想空間内の異なる位置に配置され、前記表示オブジェクトは複数存在し、それぞれ前記仮想空間内の異なる位置に配置され、
複数の表示オブジェクトはそれぞれ、複数の仮想カメラのうち1つの仮想カメラに対応する、請求項1に記載の方法。 - 前記ヘッドマウントディスプレイを装着しているユーザの基準視線を特定するステップと、
前記基準視線に基づいて、前記ユーザの視界領域を決定するステップを更に含み、
前記仮想カメラ空間画像は、前記複数の表示オブジェクトのうち前記視界領域内の表示オブジェクトに描画され、前記複数の表示オブジェクトのうち前記視界領域外の表示オブジェクトに描画されない
請求項4に記載の方法。 - 前記視界領域内に複数の表示オブジェクトが存在する場合に、該視界領域内の複数の表示オブジェクトのそれぞれを更新するタイミングを異ならせるステップと
を更に備える、請求項5に記載の方法。 - 前記ユーザの基準視線は、前記ヘッドマウントディスプレイの傾き、前記ヘッドマウントディスプレイに含まれる注視センサにより特定されたユーザの視線方向のいずれか又は両方に基づいて特定される、請求項5に記載の方法。
- 請求項1〜7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015231462A JP6097377B1 (ja) | 2015-11-27 | 2015-11-27 | 画像表示方法及びプログラム |
PCT/JP2016/081966 WO2017090373A1 (ja) | 2015-11-27 | 2016-10-27 | 画像表示方法及びプログラム |
US15/337,042 US10394319B2 (en) | 2015-11-27 | 2016-10-28 | Method of displaying an image, and system therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015231462A JP6097377B1 (ja) | 2015-11-27 | 2015-11-27 | 画像表示方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017019584A Division JP2017097918A (ja) | 2017-02-06 | 2017-02-06 | 画像表示方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6097377B1 true JP6097377B1 (ja) | 2017-03-15 |
JP2017093946A JP2017093946A (ja) | 2017-06-01 |
Family
ID=58281217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015231462A Active JP6097377B1 (ja) | 2015-11-27 | 2015-11-27 | 画像表示方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10394319B2 (ja) |
JP (1) | JP6097377B1 (ja) |
WO (1) | WO2017090373A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6276882B1 (ja) * | 2017-05-19 | 2018-02-07 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
JP2018195287A (ja) * | 2018-01-12 | 2018-12-06 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11086418B2 (en) | 2016-02-04 | 2021-08-10 | Douzen, Inc. | Method and system for providing input to a device |
USD866553S1 (en) * | 2016-02-04 | 2019-11-12 | Douzen, Inc. | Input device |
US10885676B2 (en) * | 2016-12-27 | 2021-01-05 | Samsung Electronics Co., Ltd. | Method and apparatus for modifying display settings in virtual/augmented reality |
JP6298563B1 (ja) * | 2017-06-30 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 |
GB2569979B (en) | 2018-01-05 | 2021-05-19 | Sony Interactive Entertainment Inc | Rendering a mixed reality scene using a combination of multiple reference viewing points |
JP2019012509A (ja) * | 2018-02-23 | 2019-01-24 | 株式会社コロプラ | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 |
US10765957B2 (en) * | 2018-02-28 | 2020-09-08 | Sony Interactive Entertainment LLC | Integrating commentary content and gameplay content over a multi-user platform |
US11410439B2 (en) * | 2019-05-09 | 2022-08-09 | Snap Inc. | Sequence-of-sequences model for 3D object recognition |
CN110147165B (zh) * | 2019-05-28 | 2022-11-11 | 英华达(上海)科技有限公司 | 基于用户终端的晕动症缓解方法、系统、设备及存储介质 |
EP4083991A4 (en) * | 2019-12-23 | 2023-06-28 | Sony Group Corporation | Image generation device, image generation method, and image generation program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014115457A (ja) * | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850211A (en) * | 1996-06-26 | 1998-12-15 | Sun Microsystems, Inc. | Eyetrack-driven scrolling |
JPH1133230A (ja) * | 1997-07-16 | 1999-02-09 | Sega Enterp Ltd | 通信ゲームシステム |
US8717292B2 (en) * | 2007-08-07 | 2014-05-06 | Osaka Electro-Communication University | Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium |
US9299184B2 (en) * | 2009-04-07 | 2016-03-29 | Sony Computer Entertainment America Llc | Simulating performance of virtual camera |
JP5609416B2 (ja) * | 2010-08-19 | 2014-10-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
BR112013005093A2 (pt) * | 2010-09-09 | 2016-05-03 | Sony Corp | dispositivo de processamento de informação, método de processamento de informação, e, programa |
JP5858433B2 (ja) * | 2010-12-08 | 2016-02-10 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
JP5966256B2 (ja) * | 2011-05-23 | 2016-08-10 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US9268406B2 (en) * | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
US9311771B2 (en) * | 2012-08-28 | 2016-04-12 | Bally Gaming, Inc. | Presenting autostereoscopic gaming content according to viewer position |
US9080868B2 (en) * | 2013-09-06 | 2015-07-14 | Wesley W. O. Krueger | Mechanical and fluid system and method for the prevention and control of motion sickness, motion-induced vision sickness, and other variants of spatial disorientation and vertigo |
US10099030B2 (en) * | 2013-09-06 | 2018-10-16 | Iarmourholdings, Inc. | Mechanical and fluid system and method for the prevention and control of motion sickness, motion-induced vision sickness, and other variants of spatial disorientation and vertigo |
JP6353214B2 (ja) | 2013-11-11 | 2018-07-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US20150215612A1 (en) * | 2014-01-24 | 2015-07-30 | Ganesh Gopal Masti Jayaram | Global Virtual Reality Experience System |
JP6355978B2 (ja) * | 2014-06-09 | 2018-07-11 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US9824498B2 (en) * | 2014-12-30 | 2017-11-21 | Sony Interactive Entertainment Inc. | Scanning display system in head-mounted display for virtual reality |
-
2015
- 2015-11-27 JP JP2015231462A patent/JP6097377B1/ja active Active
-
2016
- 2016-10-27 WO PCT/JP2016/081966 patent/WO2017090373A1/ja active Application Filing
- 2016-10-28 US US15/337,042 patent/US10394319B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014115457A (ja) * | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6276882B1 (ja) * | 2017-05-19 | 2018-02-07 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
JP2018195177A (ja) * | 2017-05-19 | 2018-12-06 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
JP2018195287A (ja) * | 2018-01-12 | 2018-12-06 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10394319B2 (en) | 2019-08-27 |
WO2017090373A1 (ja) | 2017-06-01 |
US20170153700A1 (en) | 2017-06-01 |
JP2017093946A (ja) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6097377B1 (ja) | 画像表示方法及びプログラム | |
JP6058184B1 (ja) | ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム | |
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6074525B1 (ja) | 仮想空間における視界領域調整方法、およびプログラム | |
US9875079B1 (en) | Information processing method and system for executing the information processing method | |
US20230188843A1 (en) | Image display apparatus having a plurality of display modes | |
JP6087453B1 (ja) | 仮想空間の提供方法、およびプログラム | |
TWI669635B (zh) | 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 | |
US20170358280A1 (en) | Method of controlling head-mounted display system | |
JP5980404B1 (ja) | 仮想空間内オブジェクトへの動作指示方法、及びプログラム | |
US10488949B2 (en) | Visual-field information collection method and system for executing the visual-field information collection method | |
US20190146579A1 (en) | Method of suppressing vr sickness, system for executing the method, and information processing device | |
JP2017138973A (ja) | 仮想空間の提供方法、およびプログラム | |
US20180165887A1 (en) | Information processing method and program for executing the information processing method on a computer | |
JP2017045296A (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
JP2017142783A (ja) | 仮想空間における視界領域調整方法、およびプログラム | |
JP6223614B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
US9952679B2 (en) | Method of giving a movement instruction to an object in a virtual space, and program therefor | |
JP6209252B1 (ja) | 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置 | |
JP2017097918A (ja) | 画像表示方法及びプログラム | |
JP2018010665A (ja) | 仮想空間内オブジェクトへの動作指示方法、及びプログラム | |
JP2018195172A (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
JP7300569B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2017142769A (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6941130B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6097377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |