JP7075073B2 - インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置 - Google Patents

インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置 Download PDF

Info

Publication number
JP7075073B2
JP7075073B2 JP2021503564A JP2021503564A JP7075073B2 JP 7075073 B2 JP7075073 B2 JP 7075073B2 JP 2021503564 A JP2021503564 A JP 2021503564A JP 2021503564 A JP2021503564 A JP 2021503564A JP 7075073 B2 JP7075073 B2 JP 7075073B2
Authority
JP
Japan
Prior art keywords
interactive object
user
queue
interactive
control area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503564A
Other languages
English (en)
Other versions
JP2021531587A (ja
Inventor
ユッシ レッパネン
アルト レフティニエミ
アンッティ エロネン
シャムスンダル スジーティ マテ
Original Assignee
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2021531587A publication Critical patent/JP2021531587A/ja
Application granted granted Critical
Publication of JP7075073B2 publication Critical patent/JP7075073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

分野
本明細書は、例えば、仮想現実、拡張現実または複合現実環境におけるインタラクティブオブジェクトとの相互作用に関する。
背景
仮想現実(VR:virtual reality)は、ビデオコンテンツがVRディスプレイシステムに提供される、急速に発展している技術分野である。知られているように、ビデオコンテンツソースからライブのまたは格納されたフィードがVRディスプレイシステムに提供されてよく、そのフィードがディスプレイシステムを通じて没入型出力のためのVR空間または世界を表現する。いくつかの実施形態において、空間オーディオであってよいオーディオが提供される。VRヘッドセットは、例えば、ヘッドセット内に組み込まれた一対のビデオスクリーンおよびヘッドフォンの使用を通じてユーザにVRビデオおよびオーディオコンテンツを提供するように構成されてよい。複合現実(MR:mixed reality)は、物理的およびデジタルオブジェクトが共存してリアルタイムで相互作用するように現実および仮想世界が組み合わされる技術の分野である。拡張現実(AR:augmented reality)は、コンピュータで生成された感覚入力によって拡張された現実世界ビューを指す。本明細書の文脈では、複合現実という用語が拡張現実を包含することが意図される。
例えば、仮想現実、拡張現実または複合現実シーンにおいてインタラクティブオブジェクトが提供されてよい。インタラクティブオブジェクトとの相互作用は、ユーザがインタラクティブオブジェクトに関与するためにインタラクティブオブジェクトを見るか、および/またはコントローラを用いることが必要かもしれないので煩わしいことがある。
摘要
第1の側面において、本明細書は装置を提供し、前記装置は、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加する手段、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供する手段であって、前記第1の制御区域は前記ユーザにアクセス可能である、前記提供する手段、前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを決定する手段、前記ユーザが少なくとも部分的に前記第1の制御区域内にいると決定することに応じて、前記ユーザにフィードバック(例えば、ハプティックフィードバック)を提供する手段、および前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから受信する手段を備える。
前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加する前記手段は、ユーザ注視を前記インタラクティブオブジェクトの方へ決定する手段を備えてよく、前記ユーザ注視が前記ユーザ指示である。前記ユーザ注視を決定する前記手段は、前記インタラクティブオブジェクトが少なくとも第1の閾値時間間隔にわたって前記ユーザの視野中にあるか、および/または前記ユーザと前記インタラクティブオブジェクトとの間の距離が第1の閾値距離より短いかどうかを決定してよい。
前記第1の制御区域の位置は、例えば、前記ユーザの位置に基づいて決定されてよい。
前記第1の制御区域は、前記第1の制御区域が既存のどの制御区域とも重ならないように提供されるとよい。
いくつかの実施形態は、少なくとも1つのインタラクティブオブジェクトを前記インタラクティブオブジェクトキューから削除する手段を備えてよい。前記少なくとも1つのインタラクティブオブジェクトは、例えば、前記ユーザが第2の閾値時間間隔にわたって前記少なくとも1つのインタラクティブオブジェクトと相互作用しないときに削除されてよい。
いくつかの実施形態は、前記インタラクティブオブジェクトのビジュアル表現を前記ユーザに提供する手段を備えてよい。前記インタラクティブオブジェクトの前記ビジュアル表現のサイズは、前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加するときに増加されてよい。
いくつかの実施形態は、前記第1の制御区域のビジュアル表現を前記ユーザに提供する手段を備えてよい。
前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されるときに前記ユーザに通知する手段が提供されてよい。
いくつかの実施形態は、前記少なくとも1つのインタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加した後に、第3の閾値時間間隔内に前記ユーザから拒絶入力を受信する手段、および前記拒絶入力の受信の際に前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューから削除する手段を備えてよい。
本発明のいくつかの形態において、前記手段は、少なくとも1つのプロセッサ、およびコンピュータプログラムコードを含んだ少なくとも1つのメモリを備えてよく、前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記装置の前記性能を生じさせるように構成される。
第2の側面において、本明細書は装置を記載し、前記装置は、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示を提供する手段、前記ユーザが少なくとも部分的に第1の制御区域内にいることに応じて、少なくとも1つのフィードバック(例えば、ハプティックフィードバック)を受信する手段であって、前記第1の制御区域は、前記インタラクティブオブジェクトに対応し、前記第1の制御区域は、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて提供される、前記受信する手段、および前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから提供する手段を備える。
第3の側面において、本明細書は方法を記載し、前記方法は、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加することと、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供することであって、前記第1の制御区域は前記ユーザにアクセス可能である、前記提供することと、前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを決定することと、前記ユーザが少なくとも部分的に前記第1の制御区域内にいると決定することに応じて、前記ユーザに少なくとも1つのフィードバックを提供することとを含む。
第4の側面において、本明細書は方法を記載し、前記方法は、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示を提供することと、前記ユーザが少なくとも部分的に第1の制御区域内にいることに応じて、少なくとも1つのフィードバック(例えば、ハプティックフィードバック)を受信することであって、前記第1の制御区域は、前記インタラクティブオブジェクトに対応し、前記第1の制御区域は、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて提供される、前記受信することと、前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから提供することとを含む。
前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加することは、ユーザ注視を前記インタラクティブオブジェクトの方へ決定することを含んでよく、前記ユーザ注視が前記ユーザ指示である。前記ユーザ注視を決定する前記手段は、前記インタラクティブオブジェクトが少なくとも第1の閾値時間間隔にわたって前記ユーザの視野中にあるか、および/または前記ユーザと前記インタラクティブオブジェクトとの間の距離が第1の閾値距離より短いかどうかを決定してよい。
前記第1の制御区域は、前記第1の制御区域が既存のどの制御区域とも重ならないように提供されるとよい。
いくつかの実施形態は、少なくとも1つのインタラクティブオブジェクトを前記インタラクティブオブジェクトキューから削除することを含んでよい。前記少なくとも1つのインタラクティブオブジェクトは、例えば、前記ユーザが第2の閾値時間間隔にわたって前記少なくとも1つのインタラクティブオブジェクトと相互作用しないときに削除されてよい。
いくつかの実施形態は、前記インタラクティブオブジェクトのビジュアル表現を前記ユーザに提供することを含んでよい。前記インタラクティブオブジェクトの前記ビジュアル表現のサイズは、前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加するときに増加されてよい。代わりに、または加えて、いくつかの実施形態は、前記第1の制御区域のビジュアル表現を前記ユーザに提供することを含んでよい。
いくつかの実施形態は、前記少なくとも1つのインタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加した後に、第3の閾値時間間隔内に前記ユーザから拒絶入力を受信することと、前記拒絶入力の受信の際に前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューから削除することとを含んでよい。
第5の側面において、本明細書は、前記第3または第4の側面を参照して記載されるようないずれかの方法を行うように構成された装置を記載する。
第6の側面において、本明細書は、コンピューティング装置によって実行されたときに、前記第3または第4の側面を参照して記載されるようないずれかの方法をコンピューティング装置に行わせる、(例えば、非一時的コンピュータ可読媒体のような、コンピュータ可読媒体上に提供された)コンピュータ可読命令を記載する。
第7の側面において、本明細書はコンピュータプログラムを記載し、前記コンピュータプログラムは、少なくとも、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加し、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供し、前記第1の制御区域は、前記ユーザにアクセス可能であり、前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを決定し、前記ユーザが少なくとも部分的に前記第1の制御区域内にいると決定することに応じて、前記ユーザに少なくとも1つのフィードバックを提供することを装置に行わせるための命令を備える。前記コンピュータプログラムは、装置に前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから受信させるための命令をさらに備えてよい。
第8の側面において、本明細書はコンピュータ可読媒体(例えば、不揮発性コンピュータ可読媒体)を記載し、前記コンピュータ可読媒体は、少なくとも、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加することと、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供することであって、前記第1の制御区域は前記ユーザにアクセス可能である、前記提供することと、前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを決定することと、前記ユーザが少なくとも部分的に前記第1の制御区域内にいると決定することに応じて、前記ユーザに少なくとも1つのフィードバックを提供することとを行うためにその上に格納されたプログラム命令を備える。前記コンピュータ可読媒体は、前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから受信するためにその上に格納されたプログラム命令をさらに備えてよい。
本明細書では、実施形態例が、以下の概略図を参照して、非限定の例として記載される。
仮想現実または拡張現実ヘッドセットを示す。 ある実施形態例によるブロック図である。 ある実施形態例によるブロック図である。 ある実施形態例によるアルゴリズムを示すフローチャートである。 ある実施形態例によるアルゴリズムを示すフローチャートである。 ある実施形態例によるアルゴリズムを示すフローチャートである。 ある実施形態例によるシーンの表現を示す(トップビュー)。 ある実施形態例によるシーンの表現を示す(ユーザビュー)。 ある実施形態例によるシーンの表現を示す(トップビュー)。 ある実施形態例によるシーンの表現を示す(ユーザビュー)。 ある実施形態例によるシーンの表現を示す(トップビュー)。 ある実施形態例によるシーンの表現を示す(ユーザビュー)。 ある実施形態例によるシーンの表現を示す。 ある実施形態例によるシーンの表現を示す。 ある実施形態例によるシーンの表現を示す。 ある実施形態例によるシーンの表現を示す。 実施形態例によるシーンの表現を示す。 実施形態例によるシーンの表現を示す。 ある実施形態例によるブロック図である。 コンピュータによって作動されたときに実施形態による動作を行うコンピュータ可読コードを格納する有形の媒体、リムーバブルメモリユニットを示す。 コンピュータによって作動されたときに実施形態による動作を行うコンピュータ可読コードを格納する有形の媒体、コンパクトディスク(CD:compact disc)を示す。
詳細説明
図1は、仮想現実または拡張現実空間のビジュアルデータを表示するための、仮想現実または拡張現実ヘッドセット420を示す。ヘッドセット420は、ビジュアルコンテンツ、例えば、1つ以上の仮想オブジェクトがグラスのシースルー部分上に投影または表示されることを可能にしうる、拡張現実(AR)グラスを備えてよい。
ヘッドセット420は、仮想現実または拡張現実コンテンツデータを、例えば、メディアプレーヤ(示されない)から受信する。ここで、メディアプレーヤは、その表示を通じてコンテンツを再生するように構成されたモバイルフォン、スマートフォンまたはタブレットコンピュータを備えてよい。例えば、メディアプレーヤは、デバイスの主要表面をおおう大きいディスプレイを有し、それを通じてビデオコンテンツを表示できる、タッチスクリーンデバイスであってもよい。メディアプレーヤは、ヘッドセット420のホルダ中へ挿入されてもよい。かかるヘッドセット420を用いて、スマートフォンまたはタブレットコンピュータがビジュアルデータを表示してよく、それらのビジュアルデータは、ヘッドセット420中のそれぞれのレンズを経由してユーザの眼に提供される。
ビジュアルデータは、2つのわずかに異なる角度のビジュアルシーンが各々の眼に表示される立体表示として提供されてよい。
ヘッドセット420は、ユーザの空間位置および/またはユーザの頭部の方位を決定する手段を含んでよい。これは、ヘッドセット420の空間位置および/または方位を決定する手段によってよい。継続的な複数の時間フレームにわたって、動きの量がそれゆえに算出されて、格納されてよい。例えば、ヘッドセット420は、ジャイロスコープ、加速度計および構造化光システムのうちの1つ以上を含みうる動き追跡センサを組み込んでよい。ユーザ、それゆえにヘッドセット420が位置および/または方位を変化させるにつれて、これらのセンサが位置データを生成してよく、それらの位置データから現在の視覚視野(visual FOV:visual field-of-view)が決定されて、更新される。ヘッドセット420は、仮想世界の立体ビデオ画像をユーザのそれぞれの眼の前に表示するための2つのデジタルスクリーンと、さらに提供される場合、オーディオを配信するための2つのスピーカとを備えてよい。本明細書における実施形態例は、特定のタイプのヘッドセット420に限定されない。
いくつかの実施形態例において、ユーザの頭部の空間位置および/または方位は、6自由度(6DoF:six degrees of freedom)法を用いて決定されてよい。図1に示されるように、これらは、ピッチ422、ロール423およびヨー424の測定と、さらに左右、前後および上下軸425、426および427に沿ったユークリッド空間中の並進移動の測定とを含む。(6自由度ヘッドセットの使用は、必須ではない。例えば、3自由度ヘッドセットを容易に用いることができるであろう。)
ディスプレイシステムは、ヘッドセット420の空間位置および/または方位に基づいて、仮想現実または拡張現実コンテンツデータをユーザに表示するように構成されてよい。検出された空間位置および/または方位における変化、すなわち、動きの形態は、ビジュアルデータが投影される空間にかかわるユーザの位置または方位の変換を反映するように対応するビジュアルデータにおける変化をもたらしてよい。これは、3D仮想現実または拡張現実環境を経験しているユーザによって仮想現実コンテンツデータが消費されることを許容する。
それに応じて、検出された空間位置および/または方位における変化は、オーディオデータが位置する空間にかかわるユーザの位置または方位の変換を反映するようにユーザに対して再生される対応するオーディオデータにおける変化をもたらしてよい。この変換に対応するために、レベルおよび位置変化などの修正が音オブジェクトのオーディオプレイバック特性に対してなされる。例えば、ユーザが彼の頭部を回転させるときには、ユーザの視点から、仮想世界では音オブジェクトが一定の位置のままに見えるように、音オブジェクトの位置がそれに応じて反対方向に回転される。別の例として、ユーザがオーディオオブジェクトからさらに離れるように歩くときには、現実世界ではユーザが現実の物理的音放出オブジェクトから離れるように歩くときに近似的に発生するであろうように、その利得または振幅がそれに応じて距離に逆比例して低下されてよい。
仮想現実、拡張現実、または複合現実環境におけるユーザ相互作用は、煩わしいことがありうる。典型的な仮想現実、拡張現実、または複合現実環境における相互作用、例えば、ボタンを押すまたはスライダを動かすことは、ユーザが相互作用要素を見て、次に、適切な相互作用を行うことを要求する。相互作用要素を見ることは、仮想現実環境では、例えば、仮想現実を経験するデバイスの技術的限界ゆえに現実世界と比較してより難しいことがある。典型的な例は、オブジェクトの位置を視覚的に特定することをより難しくする、ヘッドマウントディスプレイ(HMD:head mounted display)の限られた視野(FOV)である。相互作用は、例えば、コントローラまたはジェスチャを用いて行われてよい。いくつかのシナリオでは、ユーザは、相互作用を行うことを望むにもかかわらず、相互作用要素を見ていないかもしれない。
図2は、ユーザ1がインタラクティブオブジェクト装置2と相互作用する、ある実施形態例による、一般に参照数字10によって示される、ブロック図である。インタラクティブオブジェクト装置2は、仮想現実装置、拡張現実装置、および/または複合現実装置であってよい。ユーザ1は、インタラクティブオブジェクト装置2によって提供された1つ以上のインタラクティブオブジェクトと相互作用するために、ユーザ指示および/または相互作用入力をインタラクティブオブジェクト装置2へ送信してよい。「仮想現実」という用語は、本明細書では仮想現実、拡張現実、および/または複合現実を表してよい。
図3は、ある実施形態例による、一般に参照数字20によって示される、ブロック図である。ユーザ1がユーザ指示をインタラクティブオブジェクト装置2へ送信することに応じて、インタラクティブオブジェクト装置2は、ユーザ1が1つ以上のインタラクティブオブジェクトと相互作用する手段を提供する。ユーザ1は、次に、1つ以上のインタラクティブオブジェクトと相互作用することが可能である。ユーザ1が1つ以上のインタラクティブオブジェクトと相互作用するために制御区域が提供されるように、インタラクティブオブジェクト装置2によって1つ以上のインタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加されてよい。相互作用は、以下により詳細に考察される、様々な方法で行われてよい。
図4は、ある実施形態例による、一般に参照数字30によって示される、アルゴリズムを示すフローチャートである。動作12において、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加される。動作13において、インタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加されることに応じて、第1の制御区域がユーザ1に提供される。第1の制御区域は、第1のインタラクティブオブジェクトに対応する。第1のインタラクティブオブジェクトは、ユーザ指示に応答して、インタラクティブオブジェクトキューへ追加されてよい。例えば、インタラクティブオブジェクトキューは、ユーザ1が用いる可能性が最も高いインタラクティブオブジェクトを備えてよい。仮想現実環境中には複数のインタラクティブオブジェクトがあってよい。提供される複数のインタラクティブオブジェクトのすべてがユーザにとって重要なわけではないかもしれず、もしくはユーザ1によって近い将来に用いられる可能性があるわけではないかもしれない。さらにまた、ユーザ1は、いくつかのオブジェクトと相互作用することをより容易にするために、それらのインタラクティブオブジェクトをインタラクティブオブジェクトキュー中に有することを好むこともある。
図5は、ある実施形態例による、一般に参照数字40によって示される、アルゴリズムを示すフローチャートである。アルゴリズム40は、上記の動作12および13を含む。
アルゴリズム40の動作11において、インタラクティブオブジェクト装置2は、ユーザ1からユーザ指示を受信する。動作12において、ユーザ指示に応答して、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加される。動作13において、第1の制御区域が提供される。第1の制御区域は、ユーザ1が完全にまたは部分的に第1の制御区域内にいるときに、ユーザ1が第1のインタラクティブオブジェクトと相互作用することが可能であるように、第1のインタラクティブオブジェクトに対応する。動作14において、インタラクティブオブジェクト装置2は、ユーザ1が少なくとも部分的に第1の制御区域内にいるかどうかを決定する。ユーザ1が少なくとも部分的に第1の制御区域内にいることが決定される場合、動作15において少なくとも1つのフィードバックがユーザに提供される。動作16において、第1のインタラクティブオブジェクトと相互作用するためにユーザ1から相互作用入力が受信される。
第1の制御区域は、ユーザ1の位置に従って修正されてよい。かくして、ユーザ1が移動する場合、第1の制御区域は、ユーザ1の位置に関係なく、ユーザ1が第1のインタラクティブオブジェクトと相互作用することが依然として可能であることを確実にするように修正されてよい。
一例において、ユーザ指示(例えば、ユーザ指示11)は、ジェスチャ、例えば、手のジェスチャ、眼の動き、体の動き、または同様のものであってよい。手のジェスチャの例は、オブジェクト上でホーバすること、オブジェクトの方を指し示すこと、または拍手することを含む。眼の動きの例は、オブジェクトを凝視することまたは瞬きすることを含む。体の動きの例は、体の部分によるオブジェクトの方への並進移動を含む。ユーザ指示は、オーディオ入力、例えば、予め決定されたキーワードを含んだ発話、口笛、または同様のものであってもよい。代わりに、ユーザ指示は、ユーザ1から前に受信された命令であってもよい。一例において、ユーザ指示は、インタラクティブオブジェクトが第1の閾値時間間隔にわたってユーザの視野内にあるときに受信される。一例において、ユーザ指示は、ユーザとインタラクティブオブジェクトとの間の距離が第1の閾値距離未満であるときに受信される。
例えば、ユーザ1の全身が第1の制御区域内にある場合、ユーザは、完全に第1の制御区域内にいるであろう。ユーザの体のいくつかの、しかしすべてではない部分が第1の制御区域内にある場合には、ユーザ1は、部分的に第1の制御区域内にいるであろう。
別の例では、ユーザ1は、インタラクティブオブジェクト装置2と相互作用するためにコントローラを用いてよい。動作14において、ユーザ1がコントローラを第1の制御区域内の第1のインタラクティブオブジェクトの方へ向けているかどうかが決定されてよい。ユーザ1がコントローラを第1のインタラクティブオブジェクトの方へ向けている場合、動作15においてフィードバックがユーザ1に提供されてよい。
一例において、少なくとも1つのフィードバック(上記の例では動作15)は、オーディオ通知、ビジュアル通知、および/またはハプティック通知のうちの1つ以上を含んでよい。例えば、ユーザが第1の制御区域内にいるときに、インタラクティブオブジェクト装置2は、ユーザが第1の制御区域内にいることを示すことによるオーディオ通知を提供してよい。代わりに、インタラクティブオブジェクト装置2は、ユーザが第1の制御区域内にいることをユーザに示しうるビジュアル通知、例えば点滅光、ユーザビュー中の通知、ユーザビュー中に提供される第1のインタラクティブオブジェクトビューへの変化、または同様のものを提供してよい。代わりに、ユーザ1がコントローラを用いているときには、ユーザ1がコントローラを第1のインタラクティブオブジェクトの方へ向けるときに、ユーザ1は、コントローラを通してハプティックフィードバックを感じてよい。ユーザ1が第1のインタラクティブオブジェクトと相互作用することが今や可能であることを示すために、(先に提示された選択肢の2つ以上の組み合わせを含めて)ユーザにフィードバックを提供する様々な方法がありうることがわかるであろう。
一例において、相互作用入力は、ユーザ1が今や第1のインタラクティブオブジェクトと相互作用しつつあるように、ユーザ1から受信される。例えば、ユーザ1が第1のインタラクティブオブジェクトに対応するアクションを実行することを望む場合、ユーザ1は、相互作用入力をインタラクティブオブジェクト装置2へ送信してよい。相互作用入力は、特有のボタンを用いたジェスチャ、ジェスチャのシーケンス、コントローラ上の動き、もしくはボタンおよび/または動きのシーケンス、オーディオ入力、あるいは同様のものであってよい。ジェスチャは、以下には限定されないが、手のジェスチャ、眼の動き、体の動き、または前記の同様のものを含んでよい。
図6は、ある実施形態例による、一般に参照数字40によって示される、アルゴリズムを示すフローチャートである。動作11から16は、アルゴリズム40の動作11から16と同様である。
第1のインタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加した(上記の動作12)後に、動作21において、インタラクティブオブジェクト装置2は、拒絶入力がユーザ1から受信されるかどうかを決定する。拒絶入力が受信される場合、(動作22において)第1のインタラクティブオブジェクトがオブジェクトキューから削除される。削除されない場合、アルゴリズム20は、動作13~16が実行されるように上記の動作13へ移る。
ユーザ1が第1のインタラクティブオブジェクトをインタラクティブオブジェクトキュー中に保持することを望まない場合には、ユーザ1は、例えば、拒絶入力を送信してよい(動作21)。例えば、ユーザ1は、動作11においてユーザ指示を誤って送信したかもしれず、または第1のインタラクティブオブジェクトをインタラクティブオブジェクトキューへ意図的に追加したのではなかったかもしれない。それゆえに、ユーザ1は、拒絶入力を送信することによって、第1のインタラクティブオブジェクトをインタラクティブオブジェクトキューから削除してよい。拒絶入力は、特有のボタンを用いたジェスチャ、ジェスチャのシーケンス、コントローラ上の動き、もしくはボタンおよび/または動きのシーケンス、オーディオ入力、あるいは同様のものであってよい。
一例において、拒絶入力(動作21)は、第1のインタラクティブオブジェクトが少なくとも第2の閾値時間間隔にわたって相互作用しなかった場合に受信されてよい。別の例では、拒絶入力は、ユーザのロケーションに基づいて受信されてよい。例えば、ユーザと第1のインタラクティブオブジェクトとの間の距離が第1の閾値距離より大きいと決定される場合、拒絶入力が受信されて、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューから削除される(動作22)。代わりに、または加えて、ユーザと第1のインタラクティブオブジェクトとの間の距離が、ユーザ指示が受信される(動作11)ときの第1の閾値距離より大きいと決定される場合、拒絶入力が受信されて、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューから削除される。代わりに、または加えて、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加された後にユーザが特定の拒絶ロケーションにいると決定される場合、拒絶入力が受信されて、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューから削除される。
一例において、インタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加されるときに、ユーザに通知される。通知は、オーディオ通知、ビジュアル通知、および/またはハプティック通知のうちの1つであってよい。例えば、ユーザにビジュアル通知が通知されるときには、インタラクティブオブジェクトのビジュアル表現のサイズがインタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するときに増加されてよい。
図7Aおよび図7Bは、ある実施形態例による第1のシーンの表現を示す。図7Aは、一般に参照数字60Aによって示される、第1のシーンのトップビューを示す。図7Bは、一般に参照数字60Bによって示される、第1のシーンのユーザビューを示す。第1のシーンは、仮想現実環境にあってよい。トップビュー60Aは、第1のインタラクティブオブジェクト64およびユーザ62(上記のユーザ1と同様)を備える。
第1のインタラクティブオブジェクト64は、上記のインタラクティブオブジェクト装置2と同様の、インタラクティブオブジェクト装置の一部であってよい。ユーザビュー60Bは、ユーザの現在の位置からのビュー、すなわち、ユーザ62によって見られるような、仮想現実環境のビューを示す。ユーザビュー60Bは、ユーザ62によって見られるような第1のインタラクティブオブジェクト64のビジュアル表現である、第1のインタラクティブオブジェクトビュー66を備える。ユーザ62が前方(すなわち、図7A中の図の左側の方)を見ているので、第1のインタラクティブオブジェクト64は、ユーザ62には第1のインタラクティブオブジェクトビュー66のように見える。
第1のインタラクティブオブジェクト64は、現実のインタラクティブオブジェクト、例えば、物理的オブジェクト、タッチスクリーン上のアイテム、または同様のものであってよい。かくして、第1のインタラクティブオブジェクト64の位置は、トップビュー60Aに示されるように、第1のインタラクティブオブジェクト64の現実の物理的位置であってよい。代わりに、第1のインタラクティブオブジェクト64は、仮想のインタラクティブオブジェクトであってもよく、第1のインタラクティブオブジェクト64の位置は、第1のインタラクティブオブジェクト64の仮想の位置であってもよい。第1のインタラクティブオブジェクト64が現実のインタラクティブオブジェクトまたは仮想のインタラクティブオブジェクトであるかどうかに関係なく、ユーザ62は、インタラクティブオブジェクト装置に組み込まれた仮想現実技法を用いて第1のインタラクティブオブジェクト64と相互作用することが可能である。
図8Aおよび図8Bは、ある実施形態例による第2のシーンの表現を示す。図8Aは、一般に参照数字70Aによって示される、第2のシーンのトップビューを示す。図8Bは、一般に参照数字70Bによって一般に示される、第2のシーンのユーザビューを示す。第2のシーンは、仮想現実環境にあってよい。トップビュー70Aは、第1のインタラクティブオブジェクト64およびユーザ62を備える。ユーザビュー70Bは、ユーザの現在の位置からのビュー、すなわち、ユーザ62によって見られるような、仮想現実環境のビューを示す。ユーザビュー70Bは、ユーザ62によって見られるような第1のインタラクティブオブジェクト64のいずれのビューも備えない。ユーザ62が前方(すなわち、図8A中の図の左側の方)を見ていて、ユーザ62が第1のシーン60Aに示される位置から移動したときに、ユーザ62の現在の位置では第1のインタラクティブオブジェクト64がユーザ62の背後にあるので、第1のインタラクティブオブジェクト64がユーザ62には見えない。
一例において、ユーザ62が第1のシーン60Aに示される位置にいるときに、第1のインタラクティブオブジェクト64は、第1のインタラクティブオブジェクトビュー66のようにユーザには見えるので、ユーザ62が第1のインタラクティブオブジェクト64と相互作用することは容易かもしれない。ユーザ62が仮想現実環境において他のタスクを行っているときに、ユーザ62が第1のインタラクティブオブジェクト64と相互作用するためにどこか他のところを見るか、または彼らの位置を変化させることが必要ないかもしれない。しかしながら、ユーザが第2のシーン70Aに示される位置へ移動したときには、第1のインタラクティブオブジェクト64がユーザ62にはもはや見えない。ユーザ62は、その場合、第1のインタラクティブオブジェクト64と相互作用するために振り向いて第1のインタラクティブオブジェクト64を見るか、またはそれを特に指し示すことを要求されるかもしれない。これは、ユーザ62にとって気を散らし、煩わしいかもしれず、ユーザ62によって仮想現実環境において行われている他のタスクに中断を生じさせることもある。
図9Aおよび図9Bは、ある実施形態例による第3のシーンの表現を示す。図9Aは、一般に参照数字80Aによって示される、第3のシーンのトップビューを示す。図9Bは、一般に参照数字80Bによって示される、第3のシーンのユーザビューを示す。第3のシーンは、仮想現実環境にあってよい。トップビュー80Aは、第1のインタラクティブオブジェクト64、ユーザ62、および第1の制御区域82を備える。ユーザビュー80Bは、ユーザの現在の位置からのビュー、すなわち、ユーザ62によって見られるような、仮想現実環境のビューを示す。
図5と併せて眺めると、ユーザ指示がユーザ62から受信される(動作11)ときに、第1のインタラクティブオブジェクト64がインタラクティブオブジェクトキューへ追加されて(動作12)、第1の制御区域82がユーザ62に提供される(動作13)。第1の制御区域82は、ユーザ62が第1の制御区域82の方を指し示すか、またはその内にいる(動作14)ことによって第1のインタラクティブオブジェクト64と相互作用することが可能でありうるように、第1のインタラクティブオブジェクト64に対応している。かくして、ユーザ62は、第1のインタラクティブオブジェクト64を見るか、またはその方を直接に指し示すことを要求されないので、ユーザが仮想現実環境において他のタスクを行っている間に中断される可能性はより低い。第1の制御区域82は、第1のインタラクティブオブジェクト64の全般的な方向に提供されてよい。しかしながら、これは、第1の制御区域82がユーザ62の近傍においていずれかの方向に提供されてよいように、任意的である。
一例において、第1のインタラクティブオブジェクト64をインタラクティブオブジェクトキューへ追加した後に、第1のインタラクティブオブジェクトのビュー、例えば、第1のインタラクティブオブジェクトビュー84が、ユーザビュー80Bに示されるように、ユーザビューへ追加される。シーン80Aに示される位置にいるユーザ62にはユーザが前方(すなわち、図9Aの図の左側の方)を見ているときに第1のインタラクティブオブジェクト64が見えないかもしれないので、第1のインタラクティブオブジェクトビュー84の位置は、第1のインタラクティブオブジェクト64の現実の位置と必ずしも同じでなくてよい。第1のインタラクティブオブジェクト64がインタラクティブオブジェクトキュー中にあることをユーザに示すために、第1のインタラクティブオブジェクトビュー84がユーザビュー80Bへ追加されてよい。かくして、複数のインタラクティブオブジェクトがインタラクティブオブジェクトキュー中にある場合、複数のインタラクティブオブジェクトの各々についてインタラクティブオブジェクトビューがユーザビュー80Bへ追加されてよい。一例において、ユーザ62が完全にまたは部分的に第1の制御区域82内にいる(動作14)ときに、第1のインタラクティブオブジェクトビュー84のサイズを増加させるか、またはいずれか他のビジュアル変化をそれにもたらすことによって、少なくとも1つのフィードバックがユーザ62に提供される(動作15)。かくして、複数のインタラクティブオブジェクトがインタラクティブオブジェクトキュー中にある場合、第1のインタラクティブオブジェクトビュー84にのみ変化がもたらされ、他のインタラクティブオブジェクトビューは同じままである。
一例において、インタラクティブオブジェクトのビューをユーザビュー80B中に提供することに加えて、制御区域のビジュアル表現もユーザにユーザビュー80B中で提供される。これは、制御区域の全般的な方向またはサイズをユーザが決定することを許容するのに有益である。
実施形態例に記載される技法の様々な実用的使用法があってよい。
一例において、本明細書に記載される、インタラクティブオブジェクト装置2と同様の、インタラクティブオブジェクト装置が産業工場または倉庫において用いられてよい。工場には、仮想現実技法を用いて制御されてよい多くの機械がありうる。これらの機械が1つ以上のインタラクティブオブジェクトと関連付けられてよい。例えば、ユーザは、仮想現実インターフェースにおいて物理的機械を制御するためにコントローラまたはジェスチャを用いてよい。大きい工場では、例えば、ユーザが複数の機械を直接に見るか、またはそれらを指し示すことによって各機械を制御することが煩わしく、非能率的なことがある。ユーザ62と同様の、ユーザが工場において通路に沿って移動して、所望のインタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加してよい。ユーザは、インタラクティブオブジェクトキュー中のインタラクティブオブジェクトと相互作用している間に移動していてよい。例えば、ユーザ62が第1の機械を備える第1の通路にいるときに、ユーザ62は、第1のインタラクティブオブジェクト64をインタラクティブオブジェクトキューへ追加する。第1のインタラクティブオブジェクト64は、第1の機械の構成を変更するために用いられてよい。ユーザ62は、次に、工場に沿って他の通路へ移動し、第1の機械の構成が直ちに変更されなければならないことを理解する。ユーザ62は、次に、第1の制御区域82を指し示してよい。ユーザ62は、ユーザが第1の制御区域82内にいることを示すフィードバックを受信した後に、相互作用入力を送信して、第1のインタラクティブオブジェクト64と相互作用してよい。それゆえに、ユーザ62が第1の機械に近い第1の通路へ戻る必要なしに第1の機械の構成が変更される。
別の例では、インタラクティブオブジェクト装置2と同様の、本明細書に記載されるインタラクティブオブジェクト装置が画像またはビデオ編集システムに用いられてよい。例えば、画像またはビデオ編集のために仮想現実環境が用いられてよい。画像またはビデオ編集システムにおいて画像またはビデオを編集もしくは作成するための多くのツールおよび特徴があることが知られている。特定のプロジェクトに取り組んでいるユーザにとってすべてのツールおよび特徴が有用なわけではない。かくして、上記のユーザ62と同様の、ユーザは、1つ以上の有用なツールまたは特徴に対応する、1つ以上のインタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加してよい。1つ以上の有用なツールまたは特徴は、その場合、要求されたときにユーザに容易にアクセス可能であってよい。
別の例では、インタラクティブオブジェクト装置2は、オーディオビジュアル環境をモニタするために用いられてよい。例えば、ユーザは、仮想現実技法を用いてテレビ上またはインターネット上のコンサートビデオのストリーミングを制御してよい。コンサートは、複数のカメラビューおよび複数のオーディオ出力を備えてよい。ユーザは、ストリーミングのためのカメラビューおよびオーディオ出力のうちの1つ以上を選択し、または制御するために1つ以上のインタラクティブオブジェクトを追加してよい。
別の例では、インタラクティブオブジェクト装置2は、メディア消費のために用いられてよい。例えば、ユーザは、運動しながら音楽を聴くことを望んでよい。音楽を選択して再生するために仮想現実環境が用いられてよい。ユーザは、運動を中断されることなく歌を選択してよいように、1つ以上の歌をインタラクティブオブジェクトとしてインタラクティブオブジェクトキューへ追加してよい。
別の例では、インタラクティブオブジェクト装置2は、仮想シーンの周り(例えば、仮想現実環境中のコンピュータゲーム内)を移動するために用いられてよい。図10は、ある実施形態例による、一般に参照数字90によって示される、第4のシーンの表現を示す。第4のシーンの上部は、ユーザビューであり、第4のシーンの下部は、トップビューである。第4のシーンは、仮想現実コンピュータゲーム環境を示す。第4のシーンは、ドア72a(トップビュー)、ドア72b(ユーザビュー)、ユーザ62、コントローラ34a(トップビュー)、コントローラ34b(ユーザビュー)、制御区域52、およびインタラクティブオブジェクト36a(トップビュー)を備える。ユーザ62の現在の位置では、インタラクティブオブジェクト36aは、見えず、従って、ユーザビューには含まれない。インタラクティブオブジェクト36aは、ドア72aを閉めるために用いられてよい。
図11は、ある実施形態例による、一般に参照数字100によって示される、第5のシーンの表現を示す。第5のシーン100は、ユーザ62が第1の制御区域52内にいるか、またはその方を指し示してよいときに、インタラクティブオブジェクト36bがユーザのビューへ追加されてよいことを示す。さらにまた、ユーザ62が第1の制御区域52内にいるか、またはその方を指し示している間にユーザ62が相互作用入力を提供する場合、ユーザビュー中のドア102(図11には示されない、ドア72aのユーザビュー)によって示されるように、ドアが閉められてよい。ドアを閉めることが可能なことの有用性が、例えば、図12に示される。
図12および図13は、ある実施形態例による、一般に参照数字110および120によって示される、第6および第7のシーンの表現を示す。例えば、第6のシーン110では、ドア72aが開いている間にコンピュータゲーム内の仮想モンスター74がユーザ62に近づいてくる。モンスター74が近づいてくることをユーザ62が理解するや否や、ユーザ62は、第1のインタラクティブオブジェクト36aの方を見る必要なしに、第1の制御区域52に相互作用入力を送信することによって、第7のシーン120(図13のトップビューでは102a、図13のユーザビューでは102b)に示されるように、直ちにドアを閉めてよい。
インタラクティブオブジェクト装置の様々な他の使用法があってよく、上記の例が説明のために過ぎないことがわかるであろう。
一例において、ユーザは、複数のインタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加してよい。インタラクティブオブジェクトは、優先順位を有してよい。
一例において、優先順位は、インタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加された回数に基づいてインタラクティブオブジェクトに割り当てられる。例えば、ごく最近に追加されたインタラクティブオブジェクトがより高い優先順位を有してよい。別の例では、優先順位は、インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するときのユーザのインタラクティブオブジェクトからの距離に基づいてインタラクティブオブジェクトに割り当てられる。例えば、第1のインタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加されたときにユーザと第1のインタラクティブオブジェクトとの間の距離が第1の距離であり、第2のインタラクティブオブジェクトがインタラクティブオブジェクトキューへ追加されたときにはユーザと第2のインタラクティブオブジェクトとの間の距離が第2の距離であった。第1の距離が第2の距離より短い場合に、第1のインタラクティブオブジェクトの優先順位が第2のインタラクティブオブジェクトより高いことがある。代わりに、第1の距離が第2の距離より長い場合に、第1のインタラクティブオブジェクトの優先順位が第2のインタラクティブオブジェクトより高いこともある。
別の例では、優先順位は、ユーザがインタラクティブオブジェクトに優先順位を割り当ててよいように、ユーザ嗜好に基づいてインタラクティブオブジェクトに割り当てられる。
さらに別の例では、優先順位は、ユーザの現在の状況および/またはタスクおよび/または位置にとって最も適切であるとシステムによって判断されるインタラクティブオブジェクトがより高い優先順位を有するように、システムによって決定される妥当性に基づいてインタラクティブオブジェクトに割り当てられる。
一例において、インタラクティブオブジェクトごとに提供される制御区域は、優先順位に基づいて異なってよい。例えば、インタラクティブオブジェクトがより高い優先順位を有するときに、対応する区域がより大きくてよい。
一例において、ユーザビュー中に提供されるインタラクティブオブジェクトのビューは、インタラクティブオブジェクトの優先順位に基づいて異なってよい。例えば、インタラクティブオブジェクトがより高い優先順位を有するときに、対応するユーザビューがより大きてよい。
一例において、インタラクティブオブジェクトキューは、限られた数のインタラクティブオブジェクトを有してよい。ユーザによって追加されたインタラクティブオブジェクトの数が制限数を越える場合、優先順位がより低いインタラクティブオブジェクトがインタラクティブオブジェクトキューから削除されてよい。一例において、ユーザ嗜好に基づいて、または優先順位に基づいて1つ以上のインタラクティブオブジェクトがインタラクティブオブジェクトキューから削除されてよい。
図14Aおよび14Bは、ある実施形態例による、一般にそれぞれ参照数字130および140によって示される、それぞれ第8のシーンおよび第9のシーンの表現を示す。シーン130は、第1のインタラクティブオブジェクト136、第2のインタラクティブオブジェクト138、ユーザ62、第1の制御区域132aおよび第2の制御区域134aを備えるトップビューである。シーン140は、第1のインタラクティブオブジェクト136、第2のインタラクティブオブジェクト138、ユーザ62、第1の制御部域132b、第2の制御部域134b、および前のユーザ位置142を備えるトップビューである。シーン140は、ユーザ62が前のユーザ位置142から図14Bの図の左の方へ移動したことを示す。結果として、制御区域は、第1の制御区域132aから第1の制御区域132bへ、および第2の制御区域134aから第2の制御区域134bへ変化した。これは、ユーザ62が移動後または移動中であっても第1および第2の制御区域136および138と相互作用することが可能であることを許容する。
留意すべきは、複数のインタラクティブオブジェクトがインタラクティブオブジェクトキュー中にあるときには、それらに対応する制御区域が重ならないように提供されるとよいということである。
完全を期すために、図15は、以下では一般に処理システム300と呼ばれる、前述の1つ以上の実施形態例の構成要素の概略図である。処理システム300は、プロセッサ302、プロセッサに密結合され、RAM314およびROM312からなるメモリ304、ならびに、任意的に、ユーザ入力310およびディスプレイ318を有してよい。処理システム300は、ネットワーク/装置への接続のための1つ以上のネットワーク/装置インターフェース308、例えば、ワイヤードまたはワイヤレスであってよいモデムを備えてよい。インターフェース308は、他の装置、例えば、ネットワーク側装置ではないデバイス/装置への接続部として動作してもよい。従って、ネットワークに参加しないデバイス/装置間の直接接続が可能である。
プロセッサ302は、その動作を制御するために他の構成要素の各々へ接続される。
メモリ304は、不揮発性メモリ、例えば、ハードディスクドライブ(HDD:hard disk drive)またはソリッドステートドライブ(SSD:solid state drive)を備えてよい。メモリ314のROM312は、とりわけ、オペレーティングシステム315を格納し、ソフトウェアアプリケーション316も格納してよい。メモリ304のRAM314は、データの一時記憶のためにプロセッサ302によって用いられる。動作システム315は、プロセッサによって実行されたときに、上記のアルゴリズム30、40、および50の側面を実装するコードを含んでよい。小さいデバイス/装置のケースでは、メモリを小型利用に最も適するようにできて、すなわち、常にハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)が用いられるわけではないことに留意されたい。
プロセッサ302は、任意の適切な形態をとってよい。例として、プロセッサ302は、マイクロコントローラ、複数のマイクロコントローラ、プロセッサ、または複数のプロセッサであってよい。
処理システム300は、スタンドアローンコンピュータ、サーバ、コンソール、またはそれらのネットワークであってよい。処理システム300および必要とされる構造部分は、すべてが内部デバイス/装置、すなわち、極小サイズに埋め込まれたIoTデバイス/装置などであってよい。
いくつかの実施形態例において、処理システム300は、外部ソフトウェアアプリケーションと関連付けられてもよい。これらは、リモートサーバデバイス/装置上に格納されたアプリケーションであってよく、リモートサーバデバイス/装置上で部分的または排他的に作動してよい。これらのアプリケーションは、クラウドホスト型アプリケーションと称されてよい。処理システム300は、そこに格納されたソフトウェアアプリケーションを利用するためにリモートサーバデバイス/装置と通信してよい。
図16aおよび16bは、コンピュータによって作動されたときに上記の実施形態例による方法を行ってよいコンピュータ可読コードを格納する有形の媒体、それぞれ、リムーバブルメモリユニット365およびコンパクトディスク(CD)368を示す。リムーバブルメモリユニット365は、コンピュータ可読コードを格納する内部メモリ366を有するメモリスティック、例えば、USBメモリスティックであってよい。メモリ366は、コンピュータシステムによってコネクタ367を経由してアクセスされてよい。CD368は、CD-ROMもしくはDVDまたは同様のものであってよい。有形の記憶媒体の他の形態が用いられてもよい。有形の媒体は、データ/情報を格納することが可能であり、それらのデータ/情報をデバイス/装置/ネットワーク間で交換できる任意のデバイス/装置とすることができる。
本発明の実施形態は、ソフトウェア、ハードウェア、アプリケーションロジック、またはソフトウェア、ハードウェアおよびアプリケーションロジックの組み合わせで実装されてよい。ソフトウェア、アプリケーションロジックおよび/またはハードウェアは、メモリ、または任意のコンピュータ媒体上にあってよい。ある実施形態例においては、アプリケーションロジック、ソフトウェアまたは命令セットが様々な従来のコンピュータ可読媒体のいずれか1つの上に保持される。本文書の文脈では、「メモリ」または「コンピュータ可読媒体」は、命令実行システム、装置、またはデバイス、例えば、コンピュータによって、あるいはそれらと接続して用いるための命令を含む、格納する、通信する、伝搬するまたは輸送することができる、任意の非一時的媒体または手段であってよい。
「コンピュータ可読記憶媒体」、「コンピュータプログラム製品」、「有形に具現されたコンピュータプログラム」など、または「プロセッサ」、「処理回路構成」などへの言及は、適切な場合には、種々のアーキテクチャ、例えば、シングル/マルチプロセッサ・アーキテクチャおよびシーケンサ/パラレル・アーキテクチャを有するコンピュータだけでなく、特殊回路、例えば、フィールドプログラマブルゲートアレイFPGA(field programmable gate array)、特定用途向け回路ASIC(application specify circuit)、信号処理デバイス/装置および他のデバイス/装置も包含すると理解されるべきである。コンピュータプログラム、命令、コードなどへの言及は、プログラマブルプロセッサのためのソフトウェア、あるいは、ファームウェア、例えば、プロセッサのための命令、または固定機能デバイス/装置、ゲートアレイ、プログラマブルロジックデバイス/装置等のための構成されたもしくは構成設定など、ハードウェアデバイス/装置のプログラマブルコンテンツを表すと理解されるべきである。
本出願では、「回路構成」という用語は、(a)ハードウェアのみの回路実装(例えば、アナログおよび/またはデジタル回路構成のみでの実装)、ならびに(b)回路およびソフトウェア(および/またはファームウェア)の組み合わせ、例えば(適用できる場合)、(i)プロセッサ(単数または複数)の組み合わせ、または(ii)サーバなどの装置に様々な機能を行わせるために一緒に作動するプロセッサ(単数または複数)/ソフトウェアの部分(デジタル信号プロセッサ(単数または複数)を含む)、ソフトウェア、およびメモリ(単数または複数)ならびに(c)ソフトウェアまたはファームウェアがたとえ物理的に存在しなくても、動作のためにはソフトウェアまたはファームウェアを必要とする回路、例えば、マイクロプロセッサ(単数または複数)またはマイクロプロセッサ(単数または複数)の部分のすべてを指す。
望ましい場合、本明細書において考察される異なる機能が異なる順序でおよび/または互いに同時に行われてもよい。さらにまた、望ましい場合、上記の機能の1つ以上が任意的であってもよく、または組み合わされてもよい。同様に、図4、5、および6のフロー図が例に過ぎないこと、および本明細書に描かれる様々な動作が省略、再順序付け、および/または組み合わされてよいこともわかるであろう。
上記の実施形態例は、純粋に説明的であり、本発明の範囲を限定しないことがわかるであろう。本明細書を読んだときに他の変形および変更が当業者には明らかであろう。
そのうえ、本出願の開示は、本明細書に明示的あるいは暗黙的に開示される任意の新規な特徴または特徴の任意の新規な組み合わせ、またはそれらの任意の一般化を含むと理解されるべきであり、本出願の、またはそれから派生する任意の出願のプロセキューションの間に、任意のかかる特徴および/またはかかる特徴の組み合わせをカバーする新しい請求項が作成されてよい。
本発明の様々な側面が独立請求項に提示されるが、本発明の他の側面は、請求項に明示的に提示される組み合わせだけではなく、記載される実施形態例および/または従属請求項からの特徴と独立請求項の特徴との他の組み合わせを備える。
本明細書において同様に留意されるのは、様々な例を先に記載したが、これらの記載が限定的な意味で考えられるべきではないということである。むしろ、添付の特許請求の範囲において規定されるような本発明の範囲から逸脱することなく行われてよいいくつかの変形および変更がある。

Claims (15)

  1. インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加する手段と、
    前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供する手段であって、前記第1の制御区域は前記ユーザにアクセス可能である、前記提供する手段と、
    前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを決定する手段と、
    前記ユーザが少なくとも部分的に前記第1の制御区域内にいると決定することに応じて、前記ユーザにフィードバックを提供する手段と、
    前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから受信する手段と、
    を備える、装置。
  2. 前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加する前記手段は、ユーザ注視を前記インタラクティブオブジェクトの方へ決定する手段を備え、前記ユーザ注視が前記ユーザ指示である、請求項1に記載の装置。
  3. 前記ユーザ注視を決定する手段は、前記インタラクティブオブジェクトが少なくとも第1の閾値時間間隔にわたって前記ユーザの視野中にあるか、および/または前記ユーザと前記インタラクティブオブジェクトとの間の距離が第1の閾値距離より短いかどうかを決定する、請求項2に記載の装置。
  4. 前記第1の制御区域の位置は、前記ユーザの位置に基づいて決定される、請求項1から3のいずれか一項に記載の装置。
  5. 前記第1の制御区域を提供する前記手段は、前記第1の制御区域が既存のどの制御区域とも重ならないように前記第1の制御区域を提供する、請求項1から4のいずれか一項に記載の装置。
  6. 少なくとも1つのインタラクティブオブジェクトを前記インタラクティブオブジェクトキューから削除する手段をさらに備える、請求項1から5のいずれか一項に記載の装置。
  7. 前記少なくとも1つのインタラクティブオブジェクトは、前記ユーザが第2の閾値時間間隔にわたって前記少なくとも1つのインタラクティブオブジェクトと相互作用しないときに削除される、請求項6に記載の装置。
  8. 前記インタラクティブオブジェクトのビジュアル表現を前記ユーザに提供する手段をさらに備える、請求項1から7のいずれか一項に記載の装置。
  9. 前記インタラクティブオブジェクトの前記ビジュアル表現のサイズは、前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加するときに増加される、請求項8に記載の装置。
  10. 前記第1の制御区域のビジュアル表現を前記ユーザに提供する手段をさらに備える、請求項1から9のいずれか一項に記載の装置。
  11. 前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されるときに前記ユーザに通知する手段をさらに備える、請求項1から10のいずれか一項に記載の装置。
  12. 前記少なくとも1つのインタラクティブオブジェクトを前記インタラクティブオブジェクトキューへ追加した後に、第3の閾値時間間隔内に前記ユーザから拒絶入力を受信する手段と、
    前記拒絶入力の受信の際に前記インタラクティブオブジェクトを前記インタラクティブオブジェクトキューから削除する手段と、
    をさらに備える、請求項1から11のいずれか一項に記載の装置。
  13. インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示を提供する手段と、
    前記ユーザが少なくとも部分的に第1の制御区域内にいることに応じて、少なくとも1つのフィードバックを受信する手段であって、前記第1の制御区域は、前記インタラクティブオブジェクトに対応し、前記第1の制御区域は、前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて提供される、前記受信する手段と、
    前記インタラクティブオブジェクトと相互作用するための相互作用入力を前記ユーザから提供する手段と、
    を備える、装置。
  14. インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加することと、
    前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供することであって、前記第1の制御区域は前記ユーザにアクセス可能である、前記提供することと、
    前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを確定することと、
    前記ユーザが少なくとも部分的に前記第1の制御区域内にいると確定することに応じて、前記ユーザに少なくとも1つのフィードバックを提供することとと、
    を含む、方法。
  15. コンピュータプログラムであって、装置の処理手段に実行されると、前記装置に少なくとも、
    インタラクティブオブジェクトをインタラクティブオブジェクトキューへ追加するためのユーザ指示に応答して、前記インタラクティブオブジェクトを前記キューへ追加することと、
    前記インタラクティブオブジェクトが前記インタラクティブオブジェクトキューへ追加されることに応じて、前記インタラクティブオブジェクトに対応する第1の制御区域を提供することであって、前記第1の制御区域は前記ユーザにアクセス可能である、前記提供することと、
    前記ユーザが少なくとも部分的に前記第1の制御区域内にいるかどうかを確定することと、
    前記ユーザが少なくとも部分的に前記第1の制御区域内にいると確定することに応じて、前記ユーザに少なくとも1つのフィードバックを提供することとと、
    を遂行させる命令を備える、コンピュータプログラム。
JP2021503564A 2018-07-24 2019-07-12 インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置 Active JP7075073B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18185181.7 2018-07-24
EP18185181.7A EP3599538B1 (en) 2018-07-24 2018-07-24 Method and apparatus for adding interactive objects to a virtual reality environment
PCT/EP2019/068821 WO2020020665A1 (en) 2018-07-24 2019-07-12 Method and apparatus for adding interactive objects to a virtual reality environment

Publications (2)

Publication Number Publication Date
JP2021531587A JP2021531587A (ja) 2021-11-18
JP7075073B2 true JP7075073B2 (ja) 2022-05-25

Family

ID=63404930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021503564A Active JP7075073B2 (ja) 2018-07-24 2019-07-12 インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置

Country Status (4)

Country Link
US (1) US12001644B2 (ja)
EP (1) EP3599538B1 (ja)
JP (1) JP7075073B2 (ja)
WO (1) WO2020020665A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113900521A (zh) * 2021-09-30 2022-01-07 上海千丘智能科技有限公司 一种可用于多人行为训练的交互方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071252A (ja) 2006-09-15 2008-03-27 Denso Corp 情報機器
US20140002444A1 (en) 2012-06-29 2014-01-02 Darren Bennett Configuring an interaction zone within an augmented reality environment
JP2014139784A (ja) 2013-01-15 2014-07-31 Immersion Corp 触覚フィードバックを備えた拡張現実ユーザ・インタフェース
JP2017102775A (ja) 2015-12-03 2017-06-08 キヤノン株式会社 情報処理装置、制御方法およびプログラム
JP2017117008A (ja) 2015-12-21 2017-06-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
WO2018038997A1 (en) 2016-08-23 2018-03-01 Gullicksen Brothers, LLC Controlling objects using virtual rays
JP2018036942A (ja) 2016-09-01 2018-03-08 株式会社アルファコード 3次元ユーザインタフェース装置および3次元操作用プログラム
WO2018125295A1 (en) 2016-12-30 2018-07-05 Google Llc Rendering content in a 3d environment

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126221B2 (en) * 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
EP2631761A1 (en) * 2012-02-24 2013-08-28 Research In Motion Limited Method and apparatus for providing an option to undo a delete operation
US20130257692A1 (en) * 2012-04-02 2013-10-03 Atheer, Inc. Method and apparatus for ego-centric 3d human computer interface
US10175483B2 (en) 2013-06-18 2019-01-08 Microsoft Technology Licensing, Llc Hybrid world/body locked HUD on an HMD
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US9996797B1 (en) * 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US9766806B2 (en) 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
GB201414609D0 (en) * 2014-08-18 2014-10-01 Tosas Bautista Martin Systems and methods for dealing with augmented reality overlay issues
US10065114B2 (en) 2015-04-07 2018-09-04 Virtuix Holding Inc. Haptic glove for use in a virtual environment
AU2016341196B2 (en) * 2015-10-20 2021-09-16 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
US10268266B2 (en) * 2016-06-29 2019-04-23 Microsoft Technology Licensing, Llc Selection of objects in three-dimensional space

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071252A (ja) 2006-09-15 2008-03-27 Denso Corp 情報機器
US20140002444A1 (en) 2012-06-29 2014-01-02 Darren Bennett Configuring an interaction zone within an augmented reality environment
JP2014139784A (ja) 2013-01-15 2014-07-31 Immersion Corp 触覚フィードバックを備えた拡張現実ユーザ・インタフェース
JP2017102775A (ja) 2015-12-03 2017-06-08 キヤノン株式会社 情報処理装置、制御方法およびプログラム
JP2017117008A (ja) 2015-12-21 2017-06-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
WO2018038997A1 (en) 2016-08-23 2018-03-01 Gullicksen Brothers, LLC Controlling objects using virtual rays
JP2018036942A (ja) 2016-09-01 2018-03-08 株式会社アルファコード 3次元ユーザインタフェース装置および3次元操作用プログラム
WO2018125295A1 (en) 2016-12-30 2018-07-05 Google Llc Rendering content in a 3d environment

Also Published As

Publication number Publication date
US20210286503A1 (en) 2021-09-16
EP3599538A1 (en) 2020-01-29
WO2020020665A1 (en) 2020-01-30
EP3599538B1 (en) 2023-07-19
JP2021531587A (ja) 2021-11-18
US12001644B2 (en) 2024-06-04

Similar Documents

Publication Publication Date Title
RU2691589C2 (ru) Невизуальная обратная связь визуального изменения в способе и устройстве отслеживания взгляда
US10671239B2 (en) Three dimensional digital content editing in virtual reality
JP6826029B2 (ja) 画像を表示するための方法、装置およびコンピュータ・プログラム
US8964008B2 (en) Volumetric video presentation
US10909747B2 (en) Systems and methods for providing immersive graphical interfaces
TW201506688A (zh) 經由位置信號選擇使用者介面元件
EP2902998A1 (en) Display device, control system, and control programme
CA2850143A1 (en) Motion controlled list scrolling
US11868526B2 (en) Method and device for debugging program execution and content playback
CN111373347A (zh) 虚拟现实内容的提供
US11287881B2 (en) Presenting images on a display device
JP7075073B2 (ja) インタラクティブオブジェクトを仮想現実環境に追加する方法及び装置
US20200035023A1 (en) Rendering Objects in Virtual Views
EP3702008A1 (en) Displaying a viewport of a virtual space
WO2019130141A1 (en) Audio copy-paste function
US11205307B2 (en) Rendering a message within a volumetric space
US20240281070A1 (en) Simultaneous Controller and Touch Interactions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R150 Certificate of patent or registration of utility model

Ref document number: 7075073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150