JP2017134716A - 仮想現実空間提供方法および仮想現実空間提供プログラム - Google Patents

仮想現実空間提供方法および仮想現実空間提供プログラム Download PDF

Info

Publication number
JP2017134716A
JP2017134716A JP2016015384A JP2016015384A JP2017134716A JP 2017134716 A JP2017134716 A JP 2017134716A JP 2016015384 A JP2016015384 A JP 2016015384A JP 2016015384 A JP2016015384 A JP 2016015384A JP 2017134716 A JP2017134716 A JP 2017134716A
Authority
JP
Japan
Prior art keywords
virtual
display
reality space
virtual reality
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016015384A
Other languages
English (en)
Other versions
JP6134019B1 (ja
Inventor
健登 中島
Kento Nakajima
健登 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016015384A priority Critical patent/JP6134019B1/ja
Priority to US15/385,720 priority patent/US20170221180A1/en
Priority to PCT/JP2016/088730 priority patent/WO2017130621A1/ja
Application granted granted Critical
Publication of JP6134019B1 publication Critical patent/JP6134019B1/ja
Publication of JP2017134716A publication Critical patent/JP2017134716A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/20Linear translation of a whole image or part thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

【課題】多様な視覚効果を有する3次元仮想現実空間画像をユーザに提示することを目的とする。
【解決手段】ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、仮想現実空間を定義するステップと、ヘッドマウントディスプレイを装着したユーザの動きにしたがって、仮想現実空間において視点からの基準視線を特定するステップと、基準視線に基づいて、視点からの視界領域を特定するステップと、仮想現実空間内の仮想ディスプレイを視界領域内の位置に移動させるステップと、視界領域に対応した視界画像を生成し、ヘッドマウントディスプレイに表示するステップと、を含む、方法が得られる。
【選択図】図5

Description

本発明は、仮想現実空間提供方法および仮想現実空間提供プログラムに関するものである。
特許文献1には、ヘッドマウントディスプレイ(Head−Mounted Display。以下、「HMD」と称することもある。)を装着したユーザに表示される仮想空間のコンテンツ画像に、現実空間におけるユーザの外界画像を重ねて表示する技術が開示される。
国際公開第2014/156389号
特許文献1の技術は、HMDを装着した状態で外部環境が視認できないユーザに対し、その状況を知らせるために、単にコンテンツ画像中に外部画像を重ねてHMDに表示するに過ぎない。ユーザへの視覚的な効果は限定的である。
本発明は、上記の点に鑑みてなされたものである。即ち、3次元仮想現実空間(以下、単に、「3次元仮想空間」、「仮想空間」、「仮想現実空間」と称することもある。)に所定のコンテンツを出力可能なワイプ表示用の仮想ディスプレイを配置し、該仮想ディスプレイの動作をダイナミックに制御可能とする。つまり、本発明は、多様な視覚効果を有する3次元仮想現実空間画像をユーザに提示することを目的とする。
上述した課題を解決するために、本発明の一態様によれば、ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、仮想現実空間を定義するステップと、ヘッドマウントディスプレイを装着したユーザの動きにしたがって、仮想現実空間において視点からの基準視線を特定するステップと、基準視線に基づいて、視点からの視界領域を特定するステップと、仮想現実空間内の仮想ディスプレイを視界領域内の位置に移動させるステップと、視界領域に対応した視界画像を生成し、ヘッドマウントディスプレイに表示するステップと、を含む、方法が得られる。
また、本発明の他の態様によれば、ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供するプログラムであって、ヘッドマウントディスプレイに結合されるコンピュータに、仮想現実空間を定義する手段と、ヘッドマウントディスプレイを装着したユーザの動きにしたがって、仮想現実空間において視点からの基準視線を特定する手段と、基準視線に基づいて、視点からの視界領域を特定する手段と、仮想現実空間内の仮想ディスプレイを視界領域内の位置に移動させる手段と、視界領域に対応した視界画像を生成し、ヘッドマウントディスプレイに表示する手段と、として機能させる、プログラムが得られる。
本発明によれば、3次元仮想現実空間内の視覚領域に対し、仮想ディスプレイの配置をダイナミックに制御して、仮想ディスプレイ上のコンテンツ画像を多様な視覚効果と共にワイプ表示可能とする。
一実施形態のHMDシステムを示す例示の模式図である。 一実施形態の制御回路部の例示の機能ブロック図である。 一実施形態の3次元仮想空間例を示すXYZ空間図である。 図3に示したXYZ空間図に対応する側面図および平面図である。 一実施形態の制御回路部の動作例を示すフローチャートである。 第1実施形態に係る制御回路部の動作例を示す概略図である。 第2実施形態に係る制御回路部の動作例を示す概略図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態による仮想現実空間提供方法および仮想現実空間提供プログラムは、以下のような構成を備える。
(項目1) ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
前記仮想現実空間を定義するステップと、
前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定するステップと、
前記基準視線に基づいて、前記視点からの視界領域を特定するステップと、
前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させるステップと、
前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示するステップと
を含む、方法。
(項目2) 項目1記載の方法において、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる前記ステップが繰り返し実行される、方法。
(項目3) 項目1記載の方法において、更に、
前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定するステップを含み、
前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
(項目4) 項目1から3のいずれか一項記載の方法であって、
前記仮想ディスプレイを移動させる前記ステップにおいて、第1半径を有する球面に沿って前記仮想ディスプレイを移動させる、方法。
(項目5) 項目4記載の方法であって、
前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
(項目6) 項目4記載の方法であって、
前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径とは異なる第2半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
(項目7) 項目1から6のいずれか一項記載の方法であって、
前記仮想ディスプレイを移動させる前記ステップにおいて、前記視界領域内の位置が、基準視線からの所定の方位角および/または方位角を有する位置である、方法。
(項目8) 項目1から7のいずれか一項記載の方法において、
前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、ターゲット・オブジェクトを配置するように定義され、
前記仮想ディスプレイを移動させる前記ステップが、更に、前記仮想現実空間に前記ターゲット・オブジェクトを特定するステップを含み、前記仮想ディスプレイが更に、前記視点における前記基準視線から前記ターゲット・オブジェクトへの方向の前記視界領域内の位置に移動される、方法。
(項目9) 項目1から8のいずれか一項記載の方法において、
所定のユーザ作用に応答して、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
(項目10) ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供するプログラムであって、前記ヘッドマウントディスプレイに結合されるコンピュータに、
仮想ディスプレイが配置される前記仮想現実空間を定義する手段と、
前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定する手段と、
前記基準視線に基づいて、前記視点からの視界領域を特定する手段と、
前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させる手段と、
前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示する手段と
として機能させる、プログラム。
(項目11) 項目10記載のプログラムにおいて、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる、プログラム。
(項目12) 項目10記載のプログラムにおいて、更に、前記コンピュータに、
前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定する手段として機能させ、
前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる、プログラム。
〔本発明の実施形態の詳細〕
本発明の実施形態に係る仮想現実空間提供方法および仮想現実空間提供プログラムの具体例を、以下に図面を参照しながら説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、実施形態によるHMDシステム100の例示のハードウェア構成図である。HMDシステム100は、HMD110および制御回路部200を備える。HMD110および制御回路部200は、一例として有線ケーブル140によって電気的に接続され、相互に通信可能である。有線ケーブル140に代えて、無線接続としてもよい。HMD110は、ユーザ150の頭部に装着されて利用される表示デバイスである。HMD110は、ディスプレイ112、センサ114、アイトラッキングデバイス(Eye Tracking Device。以下、「ETD」と称する。)116、スピーカ(ヘッドホン)118を備える。ETD116とセンサ114は、どちらか一方だけが択一的に設けられてもよい。
ディスプレイ112は、HMD110を装着したユーザ150の視界に画像を提示するように構成される。例えば、ディスプレイ112は、非透過型ディスプレイとして構成することができる。HMD110の外界の光景はユーザ150の視界から遮断され、ユーザ150の目にはディスプレイ112に映し出された画像だけが届けられる。ディスプレイ112には、例えば、コンピュータグラフィックスを用いて生成した視界画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想空間画像である。このようにして、HMDを装着したユーザは3次元仮想現実空間に没入することになる。
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。左目用と右目用の2つの2次元画像がディスプレイ112に重畳されることにより、立体感を有する3次元の仮想空間画像がユーザ150に提供される。また、右目用画像と左目用画像を提供できるのであれば、1つの表示装置で構成されていてもよい。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
ETD116は、ユーザ150の眼球の動きを追跡して、ユーザ150の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD116は、赤外線光源および赤外線カメラを備える。赤外線光源は、HMD110を装着したユーザ150の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ150の目の画像を撮像する。赤外線はユーザ150の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ150の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ150の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ150の視線の方向が検出される。
センサ114は、ユーザ150の頭部に装着されたHMD110の傾き、および/または位置を検知する。例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、またはこれらの組み合わせを用いるのがよい。センサ114が磁気センサ、角速度センサ、または加速度センサである場合、センサ114はHMD110に内蔵されて、HMD110の傾きや位置に応じた値(磁気、角速度、又は加速度の値)を出力する。センサ114からの出力値を適宜の方法で加工することで、ユーザ150の頭部に装着されたHMD110の傾きや位置が算出される。HMD110の傾きや位置は、ユーザ150が頭を動かした際にその動きに追従するようにディスプレイ112の表示画像を変化させるのに利用されてよい。例えば、ユーザ150が頭を右(又は左、上、下)に向けると、ディスプレイ112には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出されるのであってよい。このようにして、ユーザ150が体感する仮想現実空間への没入感を更に高めることができる。なお、センサ114として、HMD110の外部に設けられたセンサを適用することとしてもよい。例えば、センサ114は、HMD110とは別体の、室内の固定位置に設置された赤外線センサであってよい。赤外線センサを用いて、HMD110の表面に設けられた赤外線発光体又は赤外線反射マーカーを検知する。このようなタイプのセンサ114は、ポジショントラッキングセンサと呼ばれることもある。
スピーカ(ヘッドホン)118はHMD110を装着したユーザ150の左右の耳の周辺にそれぞれ設けられる。スピーカ118は、制御回路部200によって生成された電気的な音信号を物理的な振動に変換し、ユーザの左右の耳に音を提供する。左右のスピーカから出力される音に時間差、音量差を設けることにより、ユーザ150は仮想空間内に配置された音源の方向、距離を知覚することができる。
制御回路部200は、HMD110に接続されるコンピュータである。制御回路部200はHMD110に搭載されていても、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部200は、一部の機能をHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。図1に示すように、制御回路部200は、プロセッサ202、メモリ204、および入出力インターフェイス206を備える。制御回路部200は更に通信インターフェイス208(図示せず)を含んでもよい。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された情報処理プログラムを実行することによって、制御回路部200(後記)の各機能がソフトウェアとして実現される。プロセッサ202は、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)を備える。メモリ204には、少なくともオペレーティングシステムおよび情報処理プログラムが格納されている。オペレーティングシステムは、制御回路部200の全体的な動作を制御するためのコンピュータプログラムである。情報処理プログラムは、制御回路部200の各機能を実装するためのコンピュータプログラムである。メモリ204はまた、制御回路部200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
入出力インターフェイス206は、HMDシステム100のユーザ150から制御回路部200を機能させるための入力を受け取るように構成される。ユーザ入力インターフェイス206の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。通信インターフェイス208(図示せず)は、ネットワークを介して外部装置と通信するための各種有線接続端子、無線接続のための各種処理回路を含んで構成され、LAN(Local Area Network)やインターネットを介して、外部カメラ・コンテンツやWebコンテンツやデジタル放送コンテンツを受信するための各種通信規格・プロトコルに適合するように構成されている。
図2は、制御回路部200に実装される機能的な構成を示す例示のブロック図である。制御回路部200は記憶部210および処理部220を有する。記憶部210は更に、オブジェクト情報211および仮想空間構成情報212を含む。記憶部210は、図1に示したメモリ204に対応する。また、処理部220は、空間定義部221、HMD動作検知部222、視線検知部223、基準視線特定部224、視界領域決定部225、判定部226、仮想ディスプレイ移動部227、および視界画像生成部228を含む。処理部220に含まれる各部221から228はソフトウェアとして実装するのがよい。即ち、図1に示したプロセッサ202がメモリ204内の各プログラムモジュールを読み出して実行することによって、各部221から228の機能性が実現される。
図3は、一実施形態による3次元仮想現実空間の一例を示すXYZ空間図である。XZ平面は地表面を表し、Y軸は高さ方向に延びる。仮想空間6は、中心3を中心として、例えば天球状に形成される。仮想空間6内には、ユーザの視点としての仮想カメラ1、およびコンピュータ制御の複数のオブジェクト(例えば、仮想ディスプレイ・オブジェクト10やターゲット・オブジェクト(図示せず))が配置されてもよい。仮想カメラ1は、仮想空間6の内部に配置される。仮想カメラ1は、常に中心3に配置されてもよいし、ユーザ150の動き(即ち、頭の動きや視線の動き)に追随するように移動してもよい。
図4に、図3のXYZ空間図に対応した、地表面を横から見た側面図(a)および上から見た平面図(b)を示す。仮想空間6における仮想カメラ1(視点)からの視界領域5は、基準視線4に基づいて決定される。図示のように、視界領域5は3次元の空間領域であり、基準視線4を中心とした所定の極角αを含む範囲、および所定の方位角βを含む範囲を含むように定義される。視界領域5は更に、天球面の一部を有するように定義される。仮想カメラ1からの視界画像が視界領域5に対応した画像として生成され、HMDに表示されることになる。一実施形態では、視界画像は、360度コンテンツを天球面に沿った球面映像とするように形成するのがよい。具体的には、天球面を格子状に形成し、各格子に360度コンテンツの一部を関連づけて貼り付けることにより、全体として球面映像を形成するのがよい。後記する図6および図7の視界画像例では、天球面に沿って世界地図の画像を球面画像として貼り付けていることが理解される。360度コンテンツは、静止画コンテンツ、動画コンテンツ、オーディオ・コンテンツ等を含む任意のデジタルコンテンツとすることができる。
一実施形態によれば、更に、オブジェクト(図3および図4では仮想ディスプレイ10)を仮想空間6の視界領域5内に収容するように配置し、仮想カメラ1から見たオブジェクトの画像も含めるように視界画像が生成される。即ち、天球面の内の視界領域5に関連付けられた部分に表示される360度コンテンツの画像を背景画像とし、視界領域5内に配置されたオブジェクトの画像を重畳して視界画像が生成される。仮想空間6に配置される仮想ディスプレイ10は、仮想現実空間内でテレビ・コンテンツやwebコンテンツを表示可能な仮想テレビや仮想webブラウザとするのがよく、制御装置の通信インターフェイス208を介して外部から受信したコンテンツを出力可能とする。仮想ディスプレイ10上のコンテンツは、360度コンテンツと同様に、静止画コンテンツ、動画コンテンツ、オーディオ・コンテンツ等を含む任意のデジタルコンテンツとすることができる。仮想ディスプレイ10は任意の形状とすることができ、また、任意の空間位置に配置することができる。一例として、仮想ディスプレイは、曲面形状を有してもよい。
図5に、一実施形態により、HMDを用いてユーザが没入する仮想現実空間を提供する方法を提供する制御回路部200の動作例を示す。図5は、制御回路部200の情報処理を示すフローチャートである。図2に示した各機能ブロックを機能させることで各処理が実行される。
最初に、空間定義部221は、仮想現実空間を定義して、仮想現実空間を展開する(S401)。より詳細には、記憶部210に格納されたオブジェクト情報211や仮想空間構成情報212を用いて仮想現実空間を定義・展開する。オブジェクト情報211は、仮想ディスプレイ10やターゲット・オブジェクト(後記)の配置情報を、各々に関連付けられる属性タグ情報のような付随情報と共に含む。仮想空間構成情報212は、天球に沿って貼り付けられた360度コンテンツ映像情報、および仮想ディスプレイ上に表示されるコンテンツ情報を含む。
HMD動作検出部222は、HMD110を装着したユーザ150の動きにしたがって、ユーザの視界方向を決定し(S402)、視線検知部223は、ユーザの視線方向を決定する(S403)。これにより、基準視線特定部224は、仮想現実空間において視点からの基準視線を特定する(S404)。そして、視界領域決定部225は、基準視線4に基づいて、図3および図4に示した、視点からの視界領域5を決定する(S405)。
より詳細には、HMD動作検出部222は、センサ114により検出されたHMD110の傾き、および/または位置に応じたデータを経時的に取得して、ユーザ150の視界方向を決定する。次いで、視線検知部223は、ETD116によって検出されたユーザの右目および/または左目の視線方向に基づいて、ユーザの視線方向を決定する。視線方向は、一例として、ユーザの右目および左目の中心と、ユーザの右目および左目の視線方向の交点である注視点とが通る直線の伸びる方向として定義するのがよい。引き続き、基準視線特定部224は、例えば、ユーザ150の右目および左目の中心と、視界方向に位置するディスプレイ112の中心とを結ぶ直線を基準視線として特定し、仮想現実空間における基準視線4に対応させる。視点、基準視線4を中心とした所定の極角αを含む範囲および所定の方位角βを含む範囲、並びに、これら範囲にしたがって特定される天球面の一部を含むように構成される3次元領域として視界領域5が決定される(図3および図4を参照)。決定した3次元の視界領域5は、HMDを装着したユーザの動きに従い、基準視線4が変位するのに連動して変化することが理解される。
S406以降の処理では、決定された視界領域5に関連づけて、仮想ディスプレイ10の動作をダイナミックに制御する。即ち、判定部226は、視界領域5に対し、仮想ディスプレイ10を移動させるべきかについて判定し(S406)、肯定的な判断(「はい」)の場合に、仮想ディスプレイ移動部227は、仮想ディスプレイを視界領域内の所定の位置に移動させる(S407)。
より詳細には、判定部226では、任意のタイミングに応答して肯定的な判断を行うことができる。タイミングは、一例として、仮想ディスプレイのオブジェクトが視界領域5から外れてユーザがディスプレイ上で視認できなくなったタイミングとするのがよい。代替として、HMDを装着したユーザの動きに伴い基準視線に変位があった毎のタイミングとしてもよい。仮想ディスプレイ移動部227は、仮想空間6内で任意の態様で、仮想ディスプレイ10を移動させることができる。一例として、仮想ディスプレイ移動部227は、360度コンテンツが表示される天球面と同一の中心を有する、所定の半径を有する球面に沿って仮想ディスプレイ10を移動させてもよい。所定の半径は、仮想空間6の天球面の半径と同一でもよいし、異なるものとしてもよい。また、仮想ディスプレイの移動先の位置は、視界領域5内の任意の位置とすることができる。
なお、「仮想ディスプレイ」は、必ずしも、3次元オブジェクトには限定されず、3次元仮想空間6内でコンテンツ画像を表示するものであれば任意のものでよい。例えば、360度コンテンツ映像中に直接埋め込まれたサブコンテンツ映像についても、埋め込み領域のことを「仮想ディスプレイ」とみなすことができる。この場合、サブコンテンツ映像は、所定のサイズを有する球面映像として構成され、仮想空間6の天球面に直接貼り付けられる。360度コンテンツ映像が天球面に固定的に配置されるのとは異なり、サブコンテンツ映像は天球面上で位置を更新することができる。即ち、サブコンテンツ映像は、視界領域5に入り込むように天球面上で移動可能とするように構成されることができる。
最後に、視界画像生成部228は、視界領域5に対応した視界画像を生成し、HMDのディスプレイ112に表示する(S408)。ユーザがHMDを装着し、HMDを操作している間は、上記ステップS402からS408を繰り返し実行するのがよい。
図5のフローチャートの情報処理を実行することにより、図6に示す第1実施形態の動作例、および図7に示す第2実施形態の動作例が実現される。図6および図7は、それぞれ、(a)から(c)までの状態に視界領域が変化する際にユーザに表示される視界画像と仮想空間の(XZ)平面図とのセットを示す。図6および図7の実施形態では、それぞれ、世界地図の画像が天球に沿って貼り付けられ、HMDを装着したユーザの動きに応じて、異なる地図部分が表示されるように構成される。また、図6および図7の実施形態では、それぞれ、仮想カメラ1の位置を天球の中心に配置し、(a)から(c)まで視界領域が遷移するのに従って天球の内側の同心球面に沿って仮想ディスプレイ10を追従させる。なお、(a)から(c)まで視界領域を左方向に遷移させているが、ユーザの動きに応じて任意の方向に遷移可能であることは言うまでもない。
図6に示す第1実施形態において、(a)では、仮想ディスプレイ画像が右下に重畳されるように視界画像aが表示される。HMDを装着したユーザの動きに応じて視界領域が左方向に変位すると、図6の(b)のように、視界画像bが表示される。仮想ディスプレイ10の配置位置が変わっていないために、視界画像bでは仮想ディスプレイ画像の一部のみが重畳される。仮想ディスプレイの視界領域との重複割合が所定の値以下(例えば、50%以下)となったタイミングや、ユーザが入出力インターフェイス206を介してユーザ作用を与えたイベントが生じたタイミングが検知される。即ち、判定部226が仮想ディスプレイ10を移動させるべきと判定する(図5のS406)。その結果、図6の(c)のように、仮想ディスプレイが視界領域に追従して(実線矢印)、再度、仮想ディスプレイ画像が右下に重畳されるように視界画像cが表示される。仮想ディスプレイ画像が重畳される「右下」の位置は、視界領域5に対する所定の相対位置として定義することができる。具体的には、視界領域5において、基準視線からの所定の方位角および/または方位角を有する位置として定義するのがよい。
このように、第1実施形態では、視界領域の変化に連動させるように仮想ディスプレイ10をダイナミックに移動可能である。単に、視界画像の固定位置に仮想ディスプレイ画像が重畳されるのではなく、仮想ディスプレイ10を様々な移動態様で視界領域に表示させることができ、多様なワイプ表示態様を実現可能とする。具体的には、図6に示した「後追い」型や、視界に何もない状態から仮想ディスプレイが出現する「出現」型の移動態様とするのがよい。この結果、多様な視覚効果を有する視界画像をユーザに提示することができる。
図7に示す第2実施形態は、仮想空間にターゲット・オブジェクト15が配置され、該配置に関連づけられる位置に仮想ディスプレイ10の配置が決定される点において、図6に示した第1実施形態とは相違する。図7の(a)および(b)の視界画像a,bは、図6の視界画像a,bとそれぞれ同様であり、(c)の視界画像cが図6の視界画像cと相違する。図7の(b)において、仮想ディスプレイ移動部227が仮想ディスプレイ10を移動させる際(S407)、仮想空間内のターゲット・オブジェクト15の配置を特定する。その上で、仮想ディスプレイ移動部227は、視点における基準視線からターゲット・オブジェクトへの方向の所定位置に仮想ディスプレイ10を移動する。この結果、図7の(c)の視界画像cは、図6の(c)の視界画像cとは異なり、仮想ディスプレイ画像が左下に重畳されるように表示される。
上記第1実施形態の効果に加えて、第2実施形態は、ターゲット・オブジェクト15に向けてユーザ視線を誘導するように仮想ディスプレイ10を適用可能であるという効果を有する。仮想ディスプレイに表示するコンテンツとして、ターゲット・オブジェクトの属性タグ情報に関連するコンテンツを表示するように構成して視線誘導の効果を高めてもよい。例えば、仮想ディスプレイを仮想Webブラウザとした場合に、属性タグ情報によって特定されるWebページを表示してもよい。図7の例では、仮想ディスプレイを天球と同心球上を移動させるようにしたが、これに限定されず、ターゲット・オブジェクトに向けて視線誘導する態様であれば任意のものとすることができる。代替例として、仮想ディスプレイを、ターゲット・オブジェクトに向けて最短距離で移動させてもよい。ターゲット・オブジェクトに向けて任意の速度で移動し続けるように仮想ディスプレイを構成してもよい。また、仮想ディスプレイがターゲット・オブジェクトに接近するにつれ、仮想ディスプレイ上で再生されているオーディオ・コンテンツの音量を増加させるように構成して、視線誘導の効果を更に高めてもよい。
上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定
して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良
することができると共に、本発明にはその均等物が含まれることは言うまでもない。
100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、116…ETD、118…スピーカ、200…制御回路部、210…記憶部、220…処理部、1…仮想カメラ、4…基準視線、5…視界領域、6…仮想現実空間、10…仮想ディスプレイ、15…ターゲット・オブジェクト
(項目7) 項目1から6のいずれか一項記載の方法であって、
前記仮想ディスプレイを移動させる前記ステップにおいて、前記視界領域内の位置が、基準視線からの所定の角および/または方位角を有する位置である、方法。
図6に示す第1実施形態において、(a)では、仮想ディスプレイ画像が右下に重畳されるように視界画像a1が表示される。HMDを装着したユーザの動きに応じて視界領域が左方向に変位すると、図6の(b)のように、視界画像b1が表示される。仮想ディスプレイ10の配置位置が変わっていないために、視界画像b1では仮想ディスプレイ画像の一部のみが重畳される。仮想ディスプレイの視界領域との重複割合が所定の値以下(例えば、50%以下)となったタイミングや、ユーザが入出力インターフェイス206を介してユーザ作用を与えたイベントが生じたタイミングが検知される。即ち、判定部226が仮想ディスプレイ10を移動させるべきと判定する(図5のS406)。その結果、図6の(c)のように、仮想ディスプレイが視界領域に追従して(実線矢印)、再度、仮想ディスプレイ画像が右下に重畳されるように視界画像c1が表示される。仮想ディスプレイ画像が重畳される「右下」の位置は、視界領域5に対する所定の相対位置として定義することができる。具体的には、視界領域5において、基準視線からの所定の角および/または方位角を有する位置として定義するのがよい。

Claims (12)

  1. ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
    前記仮想現実空間を定義するステップと、
    前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定するステップと、
    前記基準視線に基づいて、前記視点からの視界領域を特定するステップと、
    前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させるステップと、
    前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示するステップと
    を含む、方法。
  2. 請求項1記載の方法において、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる前記ステップが繰り返し実行される、方法。
  3. 請求項1記載の方法において、更に、
    前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定するステップを含み、
    前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
  4. 請求項1から3のいずれか一項記載の方法であって、
    前記仮想ディスプレイを移動させる前記ステップにおいて、第1半径を有する球面に沿って前記仮想ディスプレイを移動させる、方法。
  5. 請求項4記載の方法であって、
    前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
  6. 請求項4記載の方法であって、
    前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径とは異なる第2半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
  7. 請求項1から6のいずれか一項記載の方法であって、
    前記仮想ディスプレイを移動させる前記ステップにおいて、前記視界領域内の位置が、基準視線からの所定の方位角および/または方位角を有する位置である、方法。
  8. 請求項1から7のいずれか一項記載の方法において、
    前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、ターゲット・オブジェクトを配置するように定義され、
    前記仮想ディスプレイを移動させる前記ステップが、更に、前記仮想現実空間に前記ターゲット・オブジェクトを特定するステップを含み、
    前記仮想ディスプレイが、更に、前記視点における前記基準視線から前記ターゲット・オブジェクトへの方向の前記視界領域内の位置に移動される、方法。
  9. 請求項1から8のいずれか一項記載の方法において、
    所定のユーザ作用に応答して、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
  10. ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供するプログラムであって、前記ヘッドマウントディスプレイに結合されるコンピュータに、
    前記仮想現実空間を定義する手段と、
    前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定する手段と、
    前記基準視線に基づいて、前記視点からの視界領域を特定する手段と、
    前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させる手段と、
    前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示する手段と
    として機能させる、プログラム。
  11. 請求項10記載のプログラムにおいて、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる、プログラム。
  12. 請求項10記載のプログラムにおいて、更に、前記コンピュータに、
    前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定する手段として機能させ、
    前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる、プログラム。
JP2016015384A 2016-01-29 2016-01-29 仮想現実空間提供方法および仮想現実空間提供プログラム Active JP6134019B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016015384A JP6134019B1 (ja) 2016-01-29 2016-01-29 仮想現実空間提供方法および仮想現実空間提供プログラム
US15/385,720 US20170221180A1 (en) 2016-01-29 2016-12-20 Method and system for providing a virtual reality space
PCT/JP2016/088730 WO2017130621A1 (ja) 2016-01-29 2016-12-26 仮想現実空間提供方法および仮想現実空間提供プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016015384A JP6134019B1 (ja) 2016-01-29 2016-01-29 仮想現実空間提供方法および仮想現実空間提供プログラム

Publications (2)

Publication Number Publication Date
JP6134019B1 JP6134019B1 (ja) 2017-05-24
JP2017134716A true JP2017134716A (ja) 2017-08-03

Family

ID=58745790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016015384A Active JP6134019B1 (ja) 2016-01-29 2016-01-29 仮想現実空間提供方法および仮想現実空間提供プログラム

Country Status (3)

Country Link
US (1) US20170221180A1 (ja)
JP (1) JP6134019B1 (ja)
WO (1) WO2017130621A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101330A (ja) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス 表示システム及び表示方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10539797B2 (en) * 2016-05-06 2020-01-21 Colopl, Inc. Method of providing virtual space, program therefor, and recording medium
US9978181B2 (en) * 2016-05-25 2018-05-22 Ubisoft Entertainment System for virtual reality display
US20180164952A1 (en) * 2016-12-12 2018-06-14 Lenovo (Beijing) Co., Ltd. Virtual interface display method, electronic device, and apparatus
US10546426B2 (en) * 2018-01-05 2020-01-28 Microsoft Technology Licensing, Llc Real-world portals for virtual reality displays
US10360713B1 (en) * 2018-07-17 2019-07-23 Disney Enterprises, Inc. Event enhancement using augmented reality effects
CN110300266B (zh) * 2019-07-04 2021-04-02 珠海西山居移动游戏科技有限公司 一种镜头移动方法及系统、一种计算设备及存储介质
GB2590718A (en) * 2019-12-31 2021-07-07 Nokia Technologies Oy Mediated reality
CN117784915A (zh) * 2022-09-20 2024-03-29 北京字跳网络技术有限公司 虚拟环境中的观影画面调整方法、装置、存储介质及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995005620A1 (fr) * 1993-08-12 1995-02-23 Seiko Epson Corporation Dispositif de visualisation du type lunettes et processeur de donnees d'images equipe d'un tel dispositif
JPH0785316A (ja) * 1993-08-31 1995-03-31 Sun Microsyst Inc コンピュータによって生成された情報を表示する方法およびコンピュータによって生成されたモデルを表示する装置
JPH07281815A (ja) * 1994-04-13 1995-10-27 Agency Of Ind Science & Technol 広視野映像提示装置
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2002183763A (ja) * 2000-12-18 2002-06-28 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
WO2014156389A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、提示状態制御方法及びプログラム
US20150317833A1 (en) * 2014-05-01 2015-11-05 Michael John Ebstyne Pose tracking an augmented reality device
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2960896B1 (en) * 2013-02-22 2022-07-20 Sony Group Corporation Head-mounted display and image display device
US10466858B2 (en) * 2013-12-01 2019-11-05 Upskill, Inc. Systems and methods for interacting with a virtual menu
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
AU2015373423A1 (en) * 2014-12-30 2017-05-18 Ventana Medical Systems, Inc. Systems and methods for co-expression analysis in immunoscore computation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995005620A1 (fr) * 1993-08-12 1995-02-23 Seiko Epson Corporation Dispositif de visualisation du type lunettes et processeur de donnees d'images equipe d'un tel dispositif
JPH0785316A (ja) * 1993-08-31 1995-03-31 Sun Microsyst Inc コンピュータによって生成された情報を表示する方法およびコンピュータによって生成されたモデルを表示する装置
JPH07281815A (ja) * 1994-04-13 1995-10-27 Agency Of Ind Science & Technol 広視野映像提示装置
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2002183763A (ja) * 2000-12-18 2002-06-28 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
WO2014156389A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、提示状態制御方法及びプログラム
US20150317833A1 (en) * 2014-05-01 2015-11-05 Michael John Ebstyne Pose tracking an augmented reality device
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101330A (ja) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス 表示システム及び表示方法

Also Published As

Publication number Publication date
US20170221180A1 (en) 2017-08-03
JP6134019B1 (ja) 2017-05-24
WO2017130621A1 (ja) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6134019B1 (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
JP6017664B1 (ja) 情報処理方法及び情報処理プログラム
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6342038B1 (ja) 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
US10884576B2 (en) Mediated reality
JP6058855B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP6332652B1 (ja) 表示制御装置、及びプログラム
JP2017146651A (ja) 画像処理方法及び画像処理プログラム
US10504296B2 (en) Information processing method and system for executing the information processing method
US10277814B2 (en) Display control method and system for executing the display control method
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
CN109791436B (zh) 用于提供虚拟场景的装置及方法
US20190089899A1 (en) Image processing device
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6332658B1 (ja) 表示制御装置、及びプログラム
JP2018007227A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6347375B1 (ja) 表示制御装置、及びプログラム
JP6275809B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2017120619A (ja) 情報処理方法及び情報処理プログラム
JP2018200688A (ja) 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170420

R150 Certificate of patent or registration of utility model

Ref document number: 6134019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250