JP6017664B1 - 情報処理方法及び情報処理プログラム - Google Patents

情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP6017664B1
JP6017664B1 JP2015256033A JP2015256033A JP6017664B1 JP 6017664 B1 JP6017664 B1 JP 6017664B1 JP 2015256033 A JP2015256033 A JP 2015256033A JP 2015256033 A JP2015256033 A JP 2015256033A JP 6017664 B1 JP6017664 B1 JP 6017664B1
Authority
JP
Japan
Prior art keywords
user
specific object
sight
line
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015256033A
Other languages
English (en)
Other versions
JP2017120481A (ja
Inventor
一平 近藤
一平 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015256033A priority Critical patent/JP6017664B1/ja
Application granted granted Critical
Publication of JP6017664B1 publication Critical patent/JP6017664B1/ja
Priority to US15/372,378 priority patent/US10088900B2/en
Priority to PCT/JP2016/086713 priority patent/WO2017115635A1/ja
Publication of JP2017120481A publication Critical patent/JP2017120481A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Stereophonic System (AREA)

Abstract

【課題】ヘッドマウントディスプレイを装着しているユーザの視線と、仮想空間内に配置されているオブジェクトの位置との関係に基づいて、オブジェクトの状態を変化させることを可能にする。【解決手段】仮想空間内の所定の位置に、特定のオブジェクトを配置し、特定のオブジェクトが、第1所定期間に亘って、ヘッドマウントディスプレイを装着するユーザの視線から一定範囲外に位置するかを判定する。そして、特定のオブジェクトが、第1所定期間に亘って、ユーザの視線から一定範囲外に位置する場合に、特定のオブジェクトに関連付けられた音を生成する。【選択図】図4

Description

本技術は、情報処理方法及び情報処理プログラムに関する。
特許文献1には、三次元仮想空間内の所定の発音位置から発音される音を、所定の聴取位置において音響シミュレーションすることが開示されている。
特開2000−267675号公報
特許文献1の技術は、三次元仮想空間内に配置された音源の位置と聴取位置の距離との関係を考慮してオブジェクトの発音処理を行うものである。従って、特許文献1の技術では、ヘッドマウントディスプレイを頭部に装着しているユーザの視線から一定範囲外になり不可視の状態となっているオブジェクトについて、音響シミュレーションは作れない。
本技術は、上記の点に鑑みてなされたものであり、その目的の1つは、三次元仮想現実空間内のオブジェクトの位置と、ヘッドマウントディスプレイ(Head−Mounted Display:以下、HMDと称する)を装着しているユーザの視線から一定範囲外のオブジェクトの状態を変化させ、ユーザに当該オブジェクトの存在について注意喚起を図るようにしたことにある。
上述した課題を解決するために、本技術の一態様は、ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、所定の位置に特定オブジェクトが配置された仮想現実空間を定義するステップと、前記ヘッドマウントディスプレイを装着するユーザの基準視線を特定し、前記仮想現実空間から前記ユーザが視認する視界領域を特定するステップと、前記特定オブジェクトが、第1所定期間に亘って、前記ヘッドマウントディスプレイを装着する前記ユーザの視線から一定範囲外に位置するかを判定するステップと、前記判定するステップにて肯定された場合、前記特定オブジェクトに関連付けられた音を生成するステップと、を含む、方法に関する。
また、本技術の他の一態様は、ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、所定の位置に、特定オブジェクトが配置された仮想現実空間を定義するステップと、前記ヘッドマウントディスプレイを装着するユーザの基準視線を特定し、前記仮想現実空間から前記ユーザが視認する視界領域を特定するステップと、前記特定オブジェクトが、ヘッドマウントディスプレイを装着するユーザの視線から一定範囲内に位置するかを判定する第1判定ステップと、前記第1判定ステップにて肯定された場合、前記特定オブジェクトを、第1グラフィックで描画した視界画像を生成するステップと、前記特定オブジェクトが、その後、第1所定期間に亘って、前記ユーザの視線から一定範囲外に位置するかを判定する第2判定ステップと、前記第2判定ステップにて肯定された場合、前記特定オブジェクトを、第2グラフィックで描画した視界画像を生成するステップを含む、方法に関する。
本技術によれば、三次元仮想現実空間内のオブジェクトの位置と、ユーザの視線から一定範囲外のオブジェクトの状態を変化させることが可能である。
本技術の一実施形態によるHMDシステムを示す図である。 HMDシステムの機能を実現するための、制御回路部の機能を示すブロック図である。 仮想空間の一例を示すXYZ空間図である。 本技術の第1実施形態に係る制御回路部200の動作例を示すフローチャートである。 オブジェクト情報の構成の一例を示す表である。 本技術の第2実施形態に係る制御回路部200の動作例を示すフローチャートである。
最初に、本技術の実施形態の内容を列記して説明する。本技術の一実施形態による情報処理方法、及びプログラムは、以下のような構成を備える。
(項目1)
ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
所定の位置に特定オブジェクトが配置された仮想現実空間を定義するステップと、
前記ヘッドマウントディスプレイを装着するユーザの基準視線を特定し、前記仮想現実空間から前記ユーザが視認する視界領域を特定するステップと、
前記特定オブジェクトが、第1所定期間に亘って、前記ヘッドマウントディスプレイを装着する前記ユーザの視線から一定範囲外に位置するかを判定するステップと、
前記判定するステップにて肯定された場合、前記特定オブジェクトに関連付けられた音を生成するステップと、
を含む、方法。
(項目2)
ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
所定の位置に、特定オブジェクトが配置された仮想現実空間を定義するステップと、
前記ヘッドマウントディスプレイを装着するユーザの基準視線を特定し、前記仮想現実空間から前記ユーザが視認する視界領域を特定するステップと、
前記特定オブジェクトが、ヘッドマウントディスプレイを装着するユーザの視線から一定範囲内に位置するかを判定する第1判定ステップと、
前記第1判定ステップにて肯定された場合、
前記特定オブジェクトを、第1グラフィックで描画した視界画像を生成するステップと、
前記特定オブジェクトが、その後、第1所定期間に亘って、前記ユーザの視線から一定範囲外に位置するかを判定する第2判定ステップと、
前記第2判定ステップにて肯定された場合、前記特定オブジェクトを、第2グラフィックで描画した視界画像を生成するステップ
を含む、方法。
(項目3)
前記第2判定ステップにて肯定された場合、前記特定オブジェクトに関連付けられた音を生成するステップを更に含む、項目2に記載の方法。
(項目4)
前記特定オブジェクトに関連付けられた音は、前記特定オブジェクトの仮想現実空間内の位置に基づいて生成される、項目1、3に記載の方法。
(項目5)
前記ユーザの視線から一定範囲は、前記視界領域を最大とする範囲で規定される、項目1、2に記載の方法。
(項目6)
項目1〜5のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
〔第1実施形態の説明〕
以下、図面を参照しながら本技術の第1実施形態について説明する。なお、本技術はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本技術の一実施形態に係るHMDシステム100のハードウェア構成図である。HMDシステム100は、HMD110と、制御回路部200を備える。HMD110と制御回路部200は、一例として有線ケーブル140によって電気的に接続され、相互に通信可能である。有線ケーブル140に代えて、無線接続が用いられてもよい。
以下、HMDシステム100を構成する構成要素HMD110、制御回路部200について、図1、2を参照しながらそれぞれ詳細に説明する。
〔HMDシステム100の概要〕
〔HMD110〕
HMD110は、ユーザ150の頭に装着されて利用される表示デバイスである。HMD110は、ディスプレイ112と、センサ114と、アイトラッキングデバイス(Eye Tracking Device:以下ETDと称する)116と、スピーカ(ヘッドホン)118とを備える。ETD116とセンサ114は、どちらか一方だけが択一的に設けられてもよい。
ディスプレイ112は、HMD110を装着したユーザ150の視界に画像を提示するように構成される。例えば、ディスプレイ112は、非透過型ディスプレイとして構成することができる。この場合、HMD110の外界の光景はユーザ150の視界から遮断され、ユーザ150の目にはディスプレイ112に映し出された画像だけが届けられる。ディスプレイ112には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想空間画像である。
ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。この場合、左目用と右目用の2つの2次元画像がディスプレイ112に重畳されることにより、3次元の仮想空間画像がユーザ150に提供される。また、右目用画像と左目用画像を提供できれば、1つの表示装置で構成されていてもよい。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
ETD116は、ユーザ150の眼球の動きを追跡して、ユーザ150の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD116は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD110を装着したユーザ150の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ150の目の画像を撮像する。赤外線はユーザ150の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ150の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ150の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ150の視線の方向が検出される。
センサ114は、ユーザ150の頭部に装着されたHMD110の傾き及び、又は位置を検知するためのセンサである。センサ114としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ114が磁気センサ、角速度センサ、又は加速度センサである場合、センサ114はHMD110に内蔵されて、HMD110の傾きや位置に応じた値(磁気、角速度、又は加速度の値)を出力する。センサ114からの出力値を適宜の方法で加工することで、ユーザ150の頭部に装着されたHMD110の傾きや位置が算出される。HMD110の傾きや位置は、ユーザ150が頭を動かした際にその動きに追従するようにディスプレイ112の表示画像を変化させるのに利用されてよい。例えば、ユーザ150が頭を右(又は左、上、下)に向けると、ディスプレイ112には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出されるのであってよい。これにより、ユーザ150が体感する仮想現実空間への没入感を更に高めることができる。
なおセンサ114として、HMD110の外部に設けられたセンサを適用することとしてもよい。例えば、センサ114は、HMD110とは別体の、室内の固定位置に設置された赤外線センサであってよい。この赤外線センサを用いて、HMD110の表面に設けられた赤外線発光体又は赤外線反射マーカーを検知する。このようなタイプのセンサ114は、ポジショントラッキングセンサと呼ばれることもある。
スピーカ(ヘッドホン)118はHMD110を装着したユーザ150の左右の耳の周辺にそれぞれ設けられる。スピーカ118は、制御回路部200によって生成された電気的な音信号を物理的な振動に変換し、ユーザの左右の耳に音を提供する。左右のスピーカから出力される音に時間差、音量差を設けることにより、ユーザ150は仮想空間内に配置された音源の方向、距離を知覚することができる。
〔制御回路部200〕
制御回路部200は、HMD110に接続されるコンピュータである。制御回路部200はHMD110に搭載されていても、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部200は、一部の機能をHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。図1に示すように、制御回路部200は、プロセッサ202と、メモリ204と、入出力インターフェイス206を含む。制御回路部200は更に通信インターフェイス208(不図示)を含んでも良い。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された情報処理プログラムを実行することによって、後述する制御回路部200の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
メモリ204には、少なくともオペレーティングシステムと情報処理プログラムとが格納されている。オペレーティングシステムは、制御回路部200の全体的な動作を制御するためのコンピュータプログラムである。情報処理プログラムは、後述する制御回路部200の各機能を実現するためのコンピュータプログラムである。メモリ204はまた、制御回路部200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
入出力インターフェイス206は、HMDシステム100のユーザ150から制御回路部200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス206の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。
通信インターフェイス208(不図示)は、ネットワークを介して外部装置と通信するための各種有線接続端子や、無線接続のための各種処理回路を含んで構成され、LAN(Local Area Network)やインターネットを介して通信するための各種通信規格・プロトコルに適合するように構成されている。
図2は、本技術の一実施形態に係る制御回路部200の機能的な構成を示すブロック図である。制御回路部200は記憶部210と及び処理部220を有する。記憶部210は更に、オブジェクト情報211と、仮想空間構成情報212とを備える。記憶部210は、図1に示されたメモリ204に対応する。処理部220は、オブジェクト配置部221と、HMD動作検知部222と、視線検知部223と、基準視線特定部224と、視界領域決定部225と、判定部226と、音生成部227と、視界画像生成部228を備える。処理部220及び処理部220に含まれる各部221〜228は、図1に示されたプロセッサ202がメモリ204内のプログラムを読み出して実行することによって実現される。
図3は、本技術の一実施形態に係る仮想空間の一例を示すXYZ空間図である。XZ平面は地表面を表し、Y軸は高さ方向に延びている。仮想空間6は、中心3を中心として、例えば天球状に形成される。仮想空間6内には仮想カメラ1と、コンピュータ制御の複数のオブジェクト(不図示)が配置されている。仮想カメラ1は、仮想空間6の内部に配置される。仮想カメラ1は常に中心3に配置されてもよい。仮想カメラ1の動きは、ユーザ150の頭の動きや、ユーザ150の視線の動きに追随して変化する。
〔制御回路部200の動作例〕
本実施形態では、仮想空間6内に配置されたオブジェクトと、ユーザ150の視線との関係に基づいて、仮想空間6内に配置された特定のオブジェクトに関連付けられた音を生成する。例えば、ホラーゲームにおいて、ヘッドマウントディスプレイを装着するユーザ150のディスプレイ112に、複数のオブジェクト(例えば家具)の配置された暗い室内の仮想空間が表示されている。所定時間に亘って、仮想空間内に配置された特定のオブジェクト(例えば、肖像画)がユーザ150の視線から一定範囲外に位置する場合に、該特定のオブジェクトに関連付けられた音を生成し、出力する。
図4は、本技術の第1実施形態に係る制御回路部200の動作例を示すフローチャートである。第1実施形態に係る制御回路部200の動作例について、図4を参照して説明する。
まず、ステップS401において、図2に示されたオブジェクト配置部221は、記憶部210に格納されているオブジェクト情報211を参照して、特定オブジェクトが配置された仮想現実空間(仮想空間6)を定義する。オブジェクトは、特定オブジェクトと非特定オブジェクトを含むことができる。特定オブジェクトとは、ユーザ150の視線(又は視界領域5)との関係に基づいて変化を生じる(本実施形態では発音する)オブジェクトである。非特定オブジェクトとは、ユーザ150の視線(又は視界領域5)との関係に基づいて変化しないオブジェクトである。仮想空間内に配置するオブジェクトの所定の位置は、仮想空間内の固定位置であってもよいし、移動制御されている位置でもよい。また、仮想空間6内に配置されるオブジェクト(特定オブジェクト、非特定オブジェクト)はそれぞれ1つであっても複数であってもよい。
ステップS402において、HMD動作検出部222は、ユーザ150の視界方向を決定する。HMD動作検出部222は、センサ114により検出されたHMD110の傾きや位置に応じた値(磁気、角速度、又は角速度の値)を経時的に取得し、適宜の方法で加工することにより、HMD110の傾き及び、又は位置を取得する。そして、HMD動作検出部222は、取得されたHMD110の傾き及び、又は位置に基づいて、ユーザ150の視界方向を決定する。
ステップS403において、視線検知部223は、ETD116によって検出されたユーザの右目および/又は左目の視線方向に基づいて、ユーザの視線方向を決定する。具体的には、視線検知部223は、ETD116により検知されたユーザの右目および左目の視線方向に基づいて、ユーザの右目および左目の視線方向の交点である注視点を特定する。そして、視線検知部223は、該注視点に基づいてユーザの両目による視線方向を決定する。ユーザの両目による視線方向は、例えば、ユーザの右目および左目の中心と、注視点が通る直線の伸びる方向として定義される。
ステップS404において、基準視線特定部224は、HMD110の位置や傾きにより特定されたユーザ150の視界方向、及び/又はユーザ150の視線方向に基づいて基準視線4を特定する。例えば、ユーザ150の右目及び左目の中心と、視界方向に位置するディスプレイ112の中心とを結ぶ直線を基準視線4として特定する。また、例えば、注視センサ140により特定されたユーザの視線方向を基準視線4として特定する。
ステップS405において、視界領域決定部225は、基準視線4に基づいて、仮想空間6における仮想カメラ1の視界領域5を決定する。視界領域5は、例えば図3に示すように基準視線4を中心とした所定の極角を含む範囲と、所定の方位角を含む範囲に設定される。
ステップS406において、視界画像生成部228は、記憶部210に格納されている仮想空間構成情報212を参照して、視界領域5に対応する視界画像を生成する。仮想空間構成情報212は、仮想空間6の3次元現実空間画像を格納する。視界画像生成部228は、視界領域5内にオブジェクト(特定オブジェクト、非特定オブジェクト)が存在する場合は、該オブジェクトを仮想空間6内に配置した視界画像を生成する。
さらに、ステップS406において、HMD110は、視界画像に関する情報を制御回路部200から受信して、ディスプレイ112に視界画像を出力し、表示させる。
そして、ステップS407において、判定部226は、特定オブジェクトが第1所定期間に亘って、ヘッドマウントディスプレイを装着するユーザ150の視線から一定範囲外に位置するかを判定する。第1所定期間とは、特定オブジェクトの存在を認識していないユーザに対し、特定オブジェクトの存在を認識させるために設けられる期間である。特定オブジェクトに関連する第1所定期間はあらかじめ設定されており、例えば10秒である。ユーザ150の視線は、ETD116によって検出されたユーザの視線方向に基づいて決定される。また、ユーザ150の視線は、HMD110の傾き及び、または位置に基づいて決定されても良い。この場合、例えば、ユーザ150の右目及び左目の中心と、視界方向に位置するディスプレイ112の中心とを結ぶ直線に基づいてユーザの視線が決定される。また、ユーザ150の視線から一定範囲は、視界領域5を最大とする範囲で規定され、視界領域5よりも狭くてもよい。
図5は記憶部210に格納されているオブジェクト情報211の構成の一例を示す図である。例えば、図5に示すようにオブジェクトは特定オブジェクトと非特定オブジェクトで構成される。特定オブジェクト及び、非特定オブジェクトには、それぞれの位置座標が例えば、直交座標系にて設定されている。また、特定オブジェクトには、「第1所定期間」や、後述する「音」、「第1グラフィック」、「第2グラフィック」が設定されるが、非特定オブジェクトにはこれらのパラメータは設定されない。上述したように特定オブジェクトは複数あっても良く、この場合、特定オブジェクト毎に異なる第1所定期間を設定してもよい。例えば、重要度の高い特定オブジェクト(例えば、宝箱)に対する第1所定期間を短く、重要度の低い特定オブジェクト(例えば、置物)に対する第1所定期間を長く設定する。重要度の高い特定オブジェクトの存在をユーザにより早く認識させるためである。
ステップS407において、「はい」の場合、すなわち、特定オブジェクトが第1所定期間に亘って、ヘッドマウントディスプレイを装着するユーザ150の視線から一定範囲外に位置する場合に、音生成部227は、発音対象の該特定オブジェクトに関連付けられた音を生成する(ステップS408)。まず、音生成部227は、図5に示すオブジェクト情報211を参照して、特定オブジェクトに対応する、あらかじめ規定された音を決定する。そして、音生成部227は、オブジェクトの仮想空間内の所定の位置に基づいて、オブジェクト毎に規定された音を適宜処理して、左右のスピーカ用の音信号を生成する。オブジェクトが移動制御されている場合、音生成部227は、さらに、移動するオブジェクトの仮想空間内の位置を一定間隔で求め、該位置の各々に基づいて左右のスピーカ用の音信号を生成する。特定オブジェクトが複数ある場合、音生成部227は、1つの特定オブジェクトを選択し、該選択された1つの特定オブジェクトに関連付けられた音を生成するようにしてもよい。複数のオブジェクトから発音される音を同時に再生すると、スピーカから出力される音量が大きくなりすぎる場合があるからである。
ステップS409において、HMD110は、生成された左右のスピーカ用の音信号に関する情報を制御回路部200から受信して、左右のスピーカ118にそれぞれ出力させる。左右のスピーカ118から出力された音により、ユーザは、特定オブジェクトがあたかも仮想空間内の所定の位置に存在しているかのように聞くことができる。
一方、ステップS407にて、「いいえ」の場合、すなわち、特定オブジェクトが第1所定期間に亘って、ヘッドマウントディスプレイを装着するユーザ150の視線から一定範囲外に位置しない場合に、ステップS402〜S407の処理を繰り返す。
本実施形態においては、特定オブジェクトが第1所定期間に亘って、ユーザ150の視線から一定範囲外に位置する場合に、該特定オブジェクトに関連付けられた音を生成し、スピーカに該音を出力させる。これにより、音によってユーザ150の注意を特定オブジェクトへ向けることができる。特定オブジェクトからの発音は、特に特定オブジェクトが移動している場合に有用である。ユーザ150はスピーカから出力された音を聴くことにより音源である特定ブジェクトの仮想空間内の方向及び、又は位置を特定することができる。ユーザ150は、音源である特定オブジェクトの方向及び、又は位置に頭部又は視線を動かすことにより、音源である特定オブジェクトを視界領域5内に入れることができる。オブジェクトが視界領域5内に位置する場合に、視界画像生成部228は、該オブジェクトに対応するグラフィックを描画してディスプレイ112へ出力してもよい。
また、本実施形態は、ユーザ150が、所定期間に亘ってユーザが視認していない場所から音を出力させるものである。このような音による演出は仮想空間に没入しているユーザに対し不安感を与えることができ、特にホラーゲームの趣向性を向上させることができる。
〔第2実施形態の説明〕
図6は、本技術の第2実施形態に係る制御回路部200の動作例を示すフローチャートである。第2実施形態においては、仮想空間内に配置された特定オブジェクトと、ユーザの視線(又は視界領域)との関係に基づいて、オブジェクトの音ではなくグラフィックを変化させる点で、上述の第1実施形態と異なる。本実施形態においては、まず、ユーザ150の視線から一定範囲内に位置するオブジェクトは、第1グラフィックで描画される。その後、特定オブジェクトが、所定期間に亘ってユーザ150の視線から一定範囲外に位置する場合に、該特定オブジェクトは第1グラフィックと異なる第2グラフィックで描画される。すなわち、ユーザ150により特定オブジェクトがユーザにより視認されている間は、特定オブジェクトのグラフィックは変化しない。一旦ユーザにより目がそらされると、オブジェクトのグラフィックを変化させる。以下、本実施形態では第1実施形態の構成と同様な部分についてはその説明を省略又は簡略化し、第1実施形態と異なる部分を中心に説明する。
図6に示すステップS601〜ステップS605の処理は、図4のステップS401〜ステップS405の処理と同じである。
ステップS607において、図2に示された判定部226は、ユーザ150の視線から一定範囲内に特定オブジェクトが位置するかを判定する(第1判定)。ステップS607において、「はい」の場合、すなわちユーザの視線から一定範囲内に特定オブジェクトが位置すると判定された場合には、ステップS608へ進む。
ステップS608において、視界画像生成部228は、オブジェクト情報211を参照して、特定オブジェクトに対応する第1グラフィックを特定する。また、視界画像生成部228は、仮想空間構成情報212を参照して、視界領域5に対応する視界画像を生成する。そして、視界画像生成部228は、視界領域5に対応する視界画像に、第1グラフィックで描画された特定オブジェクトを重畳した視界画像を生成する。このとき、更に、特定オブジェクトが第2所定期間に亘って、ユーザ150の視線から一定範囲内に位置するかを判定しても良い。ユーザ150が、視線から一定範囲内に位置する特定オブジェクトの存在に気づくのに一定の期間を要すると想定されるからである。第2所定期間は、例えば3秒である。
さらに、ステップS608において、HMD110は、生成された視界画像に関する情報を制御回路部200から受信して、ディスプレイ112に視界画像を出力し、表示させる。
一方、ステップS607において、「いいえ」の場合、すなわち、ユーザの視線から一定範囲内に特定オブジェクトが位置しないと判定された場合は、ステップS606へ進む。
ステップS606において、視界画像生成部228は、仮想空間構成情報212を参照して、視界領域5に対応する視界画像を生成する。さらに、ステップS606において、HMD110は、生成された視界画像に関する情報を制御回路部200から受信して、ディスプレイ112に視界画像を出力し、表示させる。そして、ステップS602へ戻る。
ステップS609において、判定部226は、特定オブジェクトが、その後、第1所定期間に亘ってユーザの視線から一定範囲外に位置するかを判定する(第2判定)。ステップS609において、「いいえ」の場合、すなわち、第1所定期間に亘って、特定オブジェクトがユーザの視線から一定範囲外に位置しない場合、ステップS606へ進む。
一方、ステップS609において「はい」の場合、すなわち、特定オブジェクトが、その後、第1所定期間に亘ってユーザの視線から一定範囲外に位置する場合、ステップS610に進む。
ステップS610において、視界画像生成部228は、オブジェクト情報211を参照して、特定オブジェクトに対応する第2グラフィックを特定する。視界画像生成部228は、仮想空間構成情報212を参照して、視界領域5に対応する視界画像を生成する。そして、視界画像生成部228は、視界領域5に対応する視界画像に、第1グラフィックとは異なる第2グラフィックで描画された特定オブジェクトを重畳した視界画像を生成する。
さらにステップS610において、HMD110は、視界画像に関する情報を制御回路部200から受信して、ディスプレイ112に視界画像を出力し、表示させる。
このように本実施形態に係るHMDシステム100によれば、ユーザの視線から一定範囲内に位置する特定オブジェクトのグラフィック(第1グラフィック)と、その後一旦ユーザの視線から一定範囲外に位置し、再度ユーザの視線から一定範囲内に位置する特定オブジェクトのグラフィック(第2グラフィック)とを異ならせる。
本実施形態においては、第1グラフィック(例えば、若い女性の肖像画)で描画されている特定オブジェクトが、一旦視界領域外に位置し、再度ユーザにより視認されるときには、第2グラフィック((例えば、老婆の肖像画))で描画されることになる。このようなグラフィックの変化は仮想空間に没入しているユーザに対し不安感を与えることができ、特にホラーゲームの趣向性を向上させることができる。
更なる実施形態においては、第1実施形態と第2実施形態を組み合わせることができる。すなわち、仮想空間内に配置されたオブジェクトと、ユーザの視線との関係に基づいて、オブジェクトに音を発音させると共に、オブジェクトのグラフィックを変化させる。このような実施形態は、例えば、図6に示すステップS609とステップS610の間に、図4に示すステップS408とステップS409を挿入することにより実現される。
更なる実施形態においては、1つの特定オブジェクトに対し、複数の音、及び複数のグラフィックをそれぞれ対応付けてもよい。例えば、音生成部227は、図5に示すように、特定オブジェクトに対応する複数の音(例えば、音1a,音1b)のうち、音1a(例えば、「ガタン」)を選択し、選択された音1aに基づいて、特定オブジェクトに関連付けられた音を生成する。このとき、視界画像生成部228は、音1aに対応する第2グラフィック(グラフィック1a’、例えば、「老婆の肖像画」が傾いて壁に掛けられているグラフィック)で特定オブジェクトを描画する。また、例えば、音生成部227は、特定オブジェクトに対応する複数の音のうち、音1b(例えば、「ガシャーン」)を選択し、選択された音1bに基づいて、特定オブジェクトに関連付けられた音を生成する。このとき、視界画像生成部228は、音1bに対応する第2グラフィック(グラフィック1b’、例えば、「老婆の肖像画」が落ちて粉々に割れているグラフィック)で特定オブジェクトを描画する。このように、1つの特定オブジェクトに関連付けられた音を複数設け、各音に関連付けられるグラフィックをそれぞれ設けることにより、より複雑なゲーム空間をユーザに提供することができる。また、発音される音と、グラフィックが関連付けられているので、臨場感のあるゲーム空間が提供される。
以上、本技術の実施の形態について説明したが、本技術は上記実施形態に限定されるものではない。前述の請求項に記載されるこの発明の精神及び範囲から逸脱することなく、
様々な実施形態の変更がなされ得ることを当業者は理解するであろう。
例えば、上述の実施形態においては、ディスプレイ112は、非透過型ディスプレイであるが、透過型ディスプレイでもよい。この場合、ユーザ150の目には、HMD110の外界の光景に、ディスプレイ112に映し出された画像(オブジェクト)が重畳して届けられる。
100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、116…ETD、118…スピーカ、200…制御回路部、210…記憶部、220…処理部、1…仮想カメラ、4…基準視線、5…視界領域、6…仮想空間

Claims (6)

  1. ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
    所定の位置に特定オブジェクトが配置された仮想現実空間を定義するステップと、
    前記ヘッドマウントディスプレイを装着するユーザの基準視線を特定し、前記仮想現実空間から前記ユーザが視認する視界領域を特定するステップと、
    前記特定オブジェクトが、第1所定期間に亘って、前記ヘッドマウントディスプレイを装着する前記ユーザの視線から一定範囲外に位置するかを判定するステップと、
    前記判定するステップにて肯定された場合、前記特定オブジェクトに関連付けられた音を生成するステップと、
    を含む、方法。
  2. ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
    所定の位置に、特定オブジェクトが配置された仮想現実空間を定義するステップと、
    前記ヘッドマウントディスプレイを装着するユーザの基準視線を特定し、前記仮想現実空間から前記ユーザが視認する視界領域を特定するステップと、
    前記特定オブジェクトが、ヘッドマウントディスプレイを装着するユーザの視線から一定範囲内に位置するかを判定する第1判定ステップと、
    前記第1判定ステップにて肯定された場合、
    前記特定オブジェクトを、第1グラフィックで描画した視界画像を生成するステップと、
    前記特定オブジェクトが、その後、第1所定期間に亘って、前記ユーザの視線から一定範囲外に位置するかを判定する第2判定ステップと、
    前記第2判定ステップにて肯定された場合、前記特定オブジェクトを、第2グラフィックで描画した視界画像を生成するステップ
    を含む、方法。
  3. 前記第2判定ステップにて肯定された場合、前記特定オブジェクトに関連付けられた音を生成するステップを更に含む、請求項2に記載の方法。
  4. 前記特定オブジェクトに関連付けられた音は、前記特定オブジェクトの仮想現実空間内の位置に基づいて生成される、請求項1、3に記載の方法。
  5. 前記ユーザの視線から一定範囲は、前記視界領域を最大とする範囲で規定される、請求項1、2に記載の方法。
  6. 請求項1〜5のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
JP2015256033A 2015-12-28 2015-12-28 情報処理方法及び情報処理プログラム Active JP6017664B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015256033A JP6017664B1 (ja) 2015-12-28 2015-12-28 情報処理方法及び情報処理プログラム
US15/372,378 US10088900B2 (en) 2015-12-28 2016-12-07 Information processing method and information processing system
PCT/JP2016/086713 WO2017115635A1 (ja) 2015-12-28 2016-12-09 情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015256033A JP6017664B1 (ja) 2015-12-28 2015-12-28 情報処理方法及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016183488A Division JP2017120619A (ja) 2016-09-20 2016-09-20 情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6017664B1 true JP6017664B1 (ja) 2016-11-02
JP2017120481A JP2017120481A (ja) 2017-07-06

Family

ID=57216845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015256033A Active JP6017664B1 (ja) 2015-12-28 2015-12-28 情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US10088900B2 (ja)
JP (1) JP6017664B1 (ja)
WO (1) WO2017115635A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106773066A (zh) * 2017-03-13 2017-05-31 华勤通讯技术有限公司 一种vr眼镜及其视距调节方法
JP6245567B1 (ja) * 2017-06-08 2017-12-13 裕 橋本 仮想現実体験システム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105339865B (zh) * 2013-04-04 2018-05-22 索尼公司 显示控制装置、显示控制方法以及计算机可读介质
SE541650C2 (en) * 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
DE102017211518A1 (de) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Erzeugen einer virtuellen Umgebung für einen Benutzer in einem Fahrzeug, entsprechendes Virtual-Reality-System sowie Fahrzeug
CN107360494A (zh) * 2017-08-03 2017-11-17 北京微视酷科技有限责任公司 一种3d音效处理方法、装置、系统及音响系统
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
US10712899B2 (en) * 2017-10-17 2020-07-14 Microsoft Technology Licensing, Llc Human-machine interface tethered to a user position in a three-dimensional VR or AR environment
US10535199B1 (en) * 2018-06-18 2020-01-14 Facebook Technologies, Llc Systems and methods for determining a safety boundary for a mobile artificial reality user
CN110634189B (zh) 2018-06-25 2023-11-07 苹果公司 用于在沉浸式混合现实体验期间用户警报的系统和方法
US10908428B2 (en) * 2018-09-25 2021-02-02 Facebook Technologies, Llc Multiple-device system with multiple power and data configurations
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US10871939B2 (en) * 2018-11-07 2020-12-22 Nvidia Corporation Method and system for immersive virtual reality (VR) streaming with reduced audio latency
US10602302B1 (en) * 2019-02-06 2020-03-24 Philip Scott Lyren Displaying a location of binaural sound outside a field of view
WO2021061351A1 (en) 2019-09-26 2021-04-01 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
CN116360601A (zh) 2019-09-27 2023-06-30 苹果公司 用于提供扩展现实环境的电子设备、存储介质和方法
US11630509B2 (en) * 2020-12-11 2023-04-18 Microsoft Technology Licensing, Llc Determining user intent based on attention values

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203250A (ja) * 2002-11-18 2003-07-18 Namco Ltd シューティングゲーム装置及び情報記憶媒体
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2015231443A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267675A (ja) 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
JP4688267B2 (ja) * 2000-09-20 2011-05-25 株式会社バンダイナムコゲームス ゲーム装置及び情報記憶媒体
KR101576294B1 (ko) * 2008-08-14 2015-12-11 삼성전자주식회사 가상 현실 시스템에서 사운드 처리를 수행하기 위한 장치 및 방법
US9411160B2 (en) * 2013-02-12 2016-08-09 Seiko Epson Corporation Head mounted display, control method for head mounted display, and image display system
US9335547B2 (en) * 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
US9143880B2 (en) * 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
JP2016033757A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
US9778814B2 (en) * 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
EP3040809B1 (en) * 2015-01-02 2018-12-12 Harman Becker Automotive Systems GmbH Method and system for controlling a human-machine interface having at least two displays
JP6600945B2 (ja) * 2015-01-20 2019-11-06 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9690103B2 (en) * 2015-02-16 2017-06-27 Philip Lyren Display an image during a communication
US9865091B2 (en) * 2015-09-02 2018-01-09 Microsoft Technology Licensing, Llc Localizing devices in augmented reality environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203250A (ja) * 2002-11-18 2003-07-18 Namco Ltd シューティングゲーム装置及び情報記憶媒体
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2015231443A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106773066A (zh) * 2017-03-13 2017-05-31 华勤通讯技术有限公司 一种vr眼镜及其视距调节方法
JP6245567B1 (ja) * 2017-06-08 2017-12-13 裕 橋本 仮想現実体験システム
JP2018202025A (ja) * 2017-06-08 2018-12-27 裕 橋本 仮想現実体験システム

Also Published As

Publication number Publication date
JP2017120481A (ja) 2017-07-06
US10088900B2 (en) 2018-10-02
US20170185148A1 (en) 2017-06-29
WO2017115635A1 (ja) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6017664B1 (ja) 情報処理方法及び情報処理プログラム
CN110536665B (zh) 使用虚拟回声定位来仿真空间感知
JP6134019B1 (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
WO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2023520765A (ja) 仮想および拡張現実のためのシステムおよび方法
JP6332652B1 (ja) 表示制御装置、及びプログラム
JP6342024B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2017146651A (ja) 画像処理方法及び画像処理プログラム
JP2019175323A (ja) シミュレーションシステム及びプログラム
JP6257825B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US10504296B2 (en) Information processing method and system for executing the information processing method
JP2019067323A (ja) 情報処理装置、情報処理方法、及び記録媒体
CN115191006A (zh) 用于所显示的2d元素的3d模型
EP3287868B1 (en) Content discovery
JP6207691B1 (ja) 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6190497B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018171455A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2019175322A (ja) シミュレーションシステム及びプログラム
JP2018195172A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2017120619A (ja) 情報処理方法及び情報処理プログラム
JP6347375B1 (ja) 表示制御装置、及びプログラム
JP6275809B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018011193A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018156675A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6941130B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R150 Certificate of patent or registration of utility model

Ref document number: 6017664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250