JP2018526693A - 仮想現実における注視対話のためのホバー挙動 - Google Patents

仮想現実における注視対話のためのホバー挙動 Download PDF

Info

Publication number
JP2018526693A
JP2018526693A JP2017556678A JP2017556678A JP2018526693A JP 2018526693 A JP2018526693 A JP 2018526693A JP 2017556678 A JP2017556678 A JP 2017556678A JP 2017556678 A JP2017556678 A JP 2017556678A JP 2018526693 A JP2018526693 A JP 2018526693A
Authority
JP
Japan
Prior art keywords
user
contactless
movement
environment
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017556678A
Other languages
English (en)
Inventor
ファーボーグ,アレクサンダー・ジェイムズ
クバーレン,サミュエル
クレメント,マニュエル・クリスチャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018526693A publication Critical patent/JP2018526693A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一般的な一局面では、システムは、仮想環境のために複数の非接触ターゲットを生成でき、複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含む。システムは加えて、第1の非接触入力および第2の非接触入力を検出し、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために少なくとも1つの非接触ターゲットを位置で提供することができる。当該位置での第2の非接触入力の検出に応答して、システムは、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行できる。

Description

関連出願との相互参照
本願は、2015年8月4日に出願された「仮想現実における注視対話のためのホバー挙動」(Hover Behavior For Gaze Interactions in Virtual Reality)と題された米国特許出願連続番号第62/200,821号の優先権および利益を主張する。その開示はその全体がここに引用により援用される。
技術分野
本説明は一般に、仮想現実(virtual reality:VR)環境におけるコンピューティングデバイスの使用に関する。
背景
一般に、仮想現実は、コンピュータによって生成された3次元(3D)環境において人を包囲し、没入させることができる。人は、特定の電子デバイスと対話することにより、および/または特定の電子デバイスを物理的に装着することにより、この環境に入ることができる。例示的な電子デバイスは、画面を含むヘルメット、ユーザが画面(たとえば、表示装置またはモニタ)を見るときに覗く眼鏡またはゴーグル、センサ付き手袋、およびセンサを含む外部ハンドヘルドデバイスを含み得るものの、それらに限定されない。人は、一旦VR環境に入ると、その人にとって現実のように見えるような態様で(たとえば、物理的な態様で)3D環境と対話することができる。
概要
一般的な一局面によれば、1つ以上のコンピュータのシステムが、特定の動作またはアクションを行なうように構成され得る。当該動作またはアクションは、動作時に当該システムに当該アクションを行なわせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せが当該システムにインストールされることによって行なわれる。1つ以上のコンピュータプログラムが、特定の動作またはアクションを行なうように構成され得る。当該動作またはアクションは、データ処理装置によって実行されると、当該装置に当該アクションを行なわせる命令を含むことによって行なわれる。
一般的な一局面では、コンピュータにより実現される方法は1つ以上のコンピュータのシステムを含み、当該システムは特定の動作またはアクションを行なうように構成される。当該動作またはアクションは、動作時に当該システムに当該アクションを行なわせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せが当該システムにインストールされることによって行なわれる。1つ以上のコンピュータプログラムが、特定の動作またはアクションを行なうように構成され得る。当該動作またはアクションは、データ処理装置によって実行されると、当該装置に当該アクションを行なわせる命令を含むことによって行なわれる。当該アクションは、仮想環境のために、複数の非接触ターゲットを生成して表示するアクションを含んでいてもよく、複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含む。当該アクションはさらに、仮想環境において第1の非接触入力を検出するアクションを含んでいてもよい。非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応していてもよい。当該アクションはさらに、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断するアクションを含んでいてもよく、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、当該アクションは、頭部装着型ディスプレイにおける表示のために、少なくとも1つの非接触ターゲットを当該位置で提供するアクションを含み得る。当該位置で第2の非接触入力を検出するアクションに応答して、当該アクションは、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行するアクションを含み得る。この局面の他の実施形態は、方法のアクションを行なうように各々構成された、対応するコンピュータシステム、装置、および1つ以上のコンピュータ記憶装置に記録されたコンピュータプログラムを含む。
実現化例は、以下の特徴のうちの1つ以上を含んでいてもよい。第1の非接触入力は、ユーザに関連付けられた減速速度を含んでいてもよく、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視(eye gaze)を含んでいてもよい。第1の非接触入力は、ユーザに関連付けられた加速速度を含んでいてもよく、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含んでいてもよい。いくつかの実現化例では、第2の非接触入力を検出するアクションは、ユーザの眼の複数の画像を分析することによって、ユーザに関連付けられた眼球注視方向を検出するアクションを含んでいてもよく、眼球注視は頭部装着型デバイスで検出される。
いくつかの実現化例では、第1の非接触入力が予め規定されたしきい値を満たすかどうかを判断するアクションは、複数の非接触ターゲットについてのトリガ情報を取得するアクションを含んでいてもよい。トリガ情報は、対話型機能性を実行するための表示に対応していてもよい。第1の非接触入力が予め規定されたしきい値を満たすかどうかを判断するアクションはまた、ユーザに関連付けられた意図を判断するアクションと、仮想環境における初期位置とユーザについての運動速度とを判断するアクションと、対話型機能性を実行するための信頼レベルを取得するために、意図および運動速度をトリガ情報と比較するアクションとを含んでいてもよい。意図を判断するアクションはまた、ユーザに関連付けられた運動の加速または減速を分析するアクションを含んでいてもよい。
いくつかの実現化例では、第2の非接触入力は、ユーザに関連付けられた眼球注視を含み、眼球注視は、対話型機能性をトリガするために固定される。いくつかの実現化例では、眼球注視は、約50ミリ秒〜約100ミリ秒の固定後に対話型機能性をトリガする。仮想オブジェクトに関連付けられた対話型機能性は、仮想オブジェクトに対応する非接触の選択可能メニューを含んでいてもよい。第2の非接触入力を検出するアクションに応答して、当該アクションは、複数の非接触制御機構を当該位置で提供するステップを含み得る。説明された手法の実現化例は、ハードウェア、方法またはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含んでいてもよい。
別の一般的な局面では、システムは、仮想現実環境において仮想現実体験を生成する電子コンピューティングデバイスを含んでいてもよい。電子コンピューティングデバイスは物理的空間内でポータブルであってもよい。システムはまた、電子コンピューティングデバイスと通信している複数のセンサを含んでいてもよい。センサは、物理的空間内の電子コンピューティングデバイスにアクセスしているユーザに関連付けられた動きを検出するように構成されてもよい。システムはまた、プロセッサを含んでいてもよく、プロセッサは、ある期間にわたる各動きに関連付けられた速度と、動きを行なうユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離とを判断するように構成される。プロセッサはまた、当該期間にわたる動きに関連付けられた加速速度を判断することに応答して、仮想環境のための第1の対話モードに関与するように構成されてもよい。プロセッサはまた、当該期間にわたる動きに関連付けられた減速速度を判断することに応答して、仮想環境のための第2の対話モードに関与し、仮想現実環境において関与されたモードの表示を表示し、動きと少なくとも1つの仮想オブジェクトとに関連付けられた対話型機能性を実行するために関与されたモードを使用するように構成されてもよい。この局面の他の実施形態は、方法のアクションを行なうように各々構成された、対応するコンピュータシステム、装置、および1つ以上のコンピュータ記憶装置に記録されたコンピュータプログラムを含む。
実現化例は、以下の特徴のうちの1つ以上を含んでいてもよい。上述のようなシステムでは、仮想オブジェクトに関連付けられた対話型機能性は、仮想オブジェクトに対応する非接触の選択可能メニューを含む。上述のようなシステムでは、第1の対話モードは、仮想環境において、少なくとも1つの仮想オブジェクト上の選択可能部分を表示することを含み、選択可能部分は、速度と、ユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離との検出後に提供される。
上述のようなシステムでは、第2の対話モードは、仮想環境において、少なくとも1つの仮想オブジェクト上の他の選択可能部分を表示することを含み、他の選択可能部分は、予め規定されたしきい値の後に、および、ユーザによって行なわれた追加運動の検出後に提供される。上述のようなシステムでは、動きは、少なくとも1つの仮想オブジェクトに向かう眼球運動に関連付けられ、眼球運動は、約50ミリ秒〜約100ミリ秒の固定後に対話型機能性をトリガする。上述のようなシステムでは、動きは、ユーザの眼球運動に関連付けられ、眼球運動は、少なくとも1つの仮想オブジェクトから離れる方に向けられる。上述のようなシステムでは、動きは、ユーザの手の運動に関連付けられ、手の運動は、少なくとも1つの仮想オブジェクトの方に向けられる。説明された手法の実現化例は、ハードウェア、方法またはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含んでいてもよい。
別の一般的な局面では、非一時的なコンピュータ読取可能媒体が説明される。非一時的なコンピュータ読取可能媒体は命令を含んでいてもよく、命令は、コンピュータシステムのプロセッサによって実行されると、コンピュータシステムに、仮想環境のために、複数の非接触ターゲットを生成するステップを行なわせ、複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、さらに、仮想環境において第1の非接触入力を検出するステップを行なわせる。非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応していてもよい。命令はまた、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、少なくとも1つの非接触ターゲットを当該位置で提供するステップを含んでいてもよい。命令はまた、当該位置で第2の非接触入力を検出するステップに応答して、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行するステップを含んでいてもよい。いくつかの実現化例では、第1の非接触入力は、ユーザに関連付けられた減速速度を含み、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む。いくつかの実現化例では、第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は頭部装着型デバイスで検出される。
この局面の他の実施形態は、方法のアクションを行なうように各々構成された、対応するコンピュータシステム、装置、および1つ以上のコンピュータ記憶装置に記録されたコンピュータプログラムを含む。
1つ以上の実現化例の詳細を、添付図面および以下の説明で述べる。他の特徴は、説明および図面から、ならびに請求項から明らかとなるであろう。
3D仮想現実(VR)環境を作り出し、当該環境と対話するための例示的なシステムのブロック図である。 コンピューティングデバイスを用いてVRコンテンツにアクセスしている頭部装着型ディスプレイ(head mounted display:HMD)デバイスを示す図である。 VRユーザインターフェイスの一例を示す例示的な図である。 VRユーザインターフェイスの一例を示す例示的な図である。 ユーザがVR HMDデバイスの画面上で見ることができるVR環境の画像を示す図である。 仮想環境におけるターゲットと対話するためのプロセスの一実施形態を図解するフローチャートである。 ここに説明される手法を実現するために使用され得るコンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す図である。
さまざまな図面における同じ参照符号は、同じ要素を示す。
詳細な説明
コンピュータによって生成された仮想現実環境は、ユーザに自分が仮想現実空間に没入していることを忘れさせることができる、ユーザのための体験を作り出すことができる。没入型の体験により、ユーザは、知覚した仮想現実環境(たとえばVR環境)と異なるように対話することを学習するようになり得る。一般に、VR環境は、仮想コンテンツと対話する多くの機構をユーザに提供できる。これらの機構は、電子機器およびセンサを有して構成されたウェアラブル製品といった、特定のユーザ運動を感知するように構成された物理デバイスを含み得る。これらの機構はまた、ユーザの眼球運動および注視方向を感知するためのセンサまたはカメラを含み得る。
仮想環境におけるユーザとの対話は、当該対話が、物理的環境において同じ対話を行なうために使用される動きに似ている場合、ユーザにとってなじみ深いものかもしれない。しかしながら、VR環境における対話の中にはユーザにとってなじみ深くないかもしれないものがあり、そのため、ユーザは、タスクを行なうためにVR環境において順応することを学習し得る。たとえば、VR環境において棚から仮想項目(たとえば本)を取り出すことは、物理的な世界において棚から物理的な本を取り出す場合に伴う動きと同じまたは似た動きを含んでいてもよい。すなわち、ユーザは、仮想世界および物理的な世界の双方において棚から本を取り出す動きを行なうために、自分の両手および両腕を操ることができる。ユーザは、仮想世界において棚から本を取り出す運動を完了するために、新たな対話型の動きを学習しなくてもいいかもしれない。しかしながら、VR環境が、本を書棚に陳列するためのトリガとして歩行速度を使用するシステムを提供する場合、ユーザは、同じように速やかには理解しないかもしれないが、本を陳列するために、または陳列しないためにその動きを使用することを学び得る。同様に、VR環境が、本の選択を示すために眼球注視を使用するシステムを提供する場合、その運動は、ユーザが手を伸ばすことによって本へのアクセスがトリガされるようにVR環境が構成された場合よりも速やかに本を選択してもよい。そのようなアクションは速やかに学習されてもよく、本開示で説明されるシステムによって格別の容易性がユーザに提供され得る。ここに説明されるシステムは、ユーザとの対話のタイミング、オブジェクト配置、ターゲット配置、およびトリガ機構を分析するように構成されてもよい。以下に説明される多くの実施形態は、そのような容易性をユーザに提供する対話型仮想現実(VR)環境を提供するためのシステムおよび方法を含む。
一般に、以下に説明されるシステムおよび方法は、対話型制御機構の表示をトリガするために、VR環境において動き回る(または見回す)ユーザが行なった身体運動または眼球運動に関する加速速度または減速速度を使用することができる。ターゲットとは、VR環境内の仮想オブジェクトの、または空間の一部の選択可能部分であり得る。選択は、衝突(たとえば、接触ベースの入力)、または感知された動き(たとえば、非接触ベースの入力)を含み得る。たとえば、ターゲットが接触ベースのものである場合、当該ターゲットは、接触ベースの入力を受信するように構成される。接触ベースのターゲットでは、ユーザは、仮想オブジェクトと接続して対話するために、両手または他の身体部分を使用して仮想オブジェクト上のターゲットと(仮想環境を介して)物理的に衝突してもよい。ターゲットが非接触ベースのものである場合、当該ターゲットは、非接触ベースの入力を受信するように構成される。すなわち、ユーザは、仮想オブジェクトに関与するかまたは仮想オブジェクトと対話するために、仮想オブジェクトを注視し、仮想オブジェクトの方を向き、仮想オブジェクトの近くをホバーし、および/または、音声コマンドを使用して仮想オブジェクト上のターゲットを音声呼び出しするなどしてもよい。いくつかの実現化例では、仮想オブジェクトは、接触ベースの入力および非接触ベースの入力の双方を受信するように構成される。そのような例では、ここに説明されるシステムおよび方法は、ユーザ入力に応答するベースを選択するように構成されてもよい。
ターゲット(およびスパーク)は、スパーク生成モジュール118によって生成され得る。スパーク生成モジュール118は、VR環境における仮想オブジェクトまたは他の仮想コンテンツ上にスパークを配置するオプションのメニューを、ディレクター(または仮想ユーザ)に提供してもよい。一般に、ターゲットおよびスパークは、ユーザ入力に応答して、特定の仮想オブジェクトおよび/または仮想シーンに関連付けられた対話型機能性を戦略的に呼び出すために配置され得る。たとえば、ターゲットおよび/またはスパークは、特定の仮想オブジェクトおよび/または仮想シーンに関連付けられた対話型機能性を呼び出してもよい。いくつかの実現化例では、仮想オブジェクトに関連付けられた対話型機能性は、VR環境における1つ以上の仮想オブジェクトに対応する非接触の選択可能メニューを含む。
いくつかの実現化例では、システムおよび方法は、対話型機能性を表わすターゲットの表示をいつトリガするか、またはトリガするかどうかを判断するために、時間しきい値または時間遅延を変更することができる。ユーザへの対話型機能性の表示は、VR環境にいる間にユーザ運動および/または眼球注視変化を検出することに応答して調整され、または他の態様で動的に修正され得る。
VR環境におけるオブジェクトと対話する従来の方法(たとえば、コントローラ、入力制御機構、手袋、腕の運動、手のジェスチャーなど)が使用され得るものの、ここに説明されるシステムおよび方法は、ユーザに関連付けられたホバー挙動および/または眼球注視挙動といった運動を検出し、当該運動に反応するように構成され得る。加えて、システムおよび方法は、ユーザがあるエリアに出入りする速度を検出し、それに応じて反応するために使用され得る。
図1は、3D仮想現実(VR)環境を作り出し、当該環境と対話するための例示的なシステム100のブロック図である。一般に、システム100は、ユーザがここに説明される方法、コンポーネント、および手法を使用してアクセスし、見て、対話するための3D VR環境およびVRコンテンツを提供してもよい。特に、システム100は、VR環境内で眼球注視および/または眼球運動を使用してコンテンツ、仮想オブジェクト、およびVR制御機構にアクセスするためのオプションを、ユーザに提供することができる。たとえば、ユーザがVR環境において提示されたターゲットにホバーすると、システム100はその運動を検出して、即時のまたはほぼ即時のアクション(たとえば機能性)をトリガするためにユーザが通過できる多くの選択可能エリア(たとえばターゲット)をVR環境内に表示することができる。ターゲットを通過することは、ターゲットと衝突することと称されてもよい。衝突は、ターゲットに関連付けられたアクションをトリガすることができる。
ここに使用されるように、ターゲットは、仮想環境において入力を受信し、コンテンツに関連付けられたアクションを行なうことに関連付けられてもよい。たとえば、ターゲットは、仮想部屋において照明スイッチバンクの近くに配置されてもよい。ユーザは、照明のオンまたはオフをトリガするために、照明スイッチバンクをホバーするかまたは注視することができる。照明スイッチバンクは任意の数のスイッチを有して構成可能であり、各スイッチは加えて、バンクにおける他のスイッチを起動することなく、そのスイッチを起動することができる、より細かいターゲット機構を含み得る。このより細かいターゲット機構は、スパークと称されてもよい。スパークはあるターゲットによって表わされてもよいが、一般に、VR環境における他のターゲットよりもサイズが小さい。加えて、スパークは、1つ以上の関連付けられたアクションを起動する前のカウントダウンタイマーまたは注視対話滞留時間要件の失効を含んでいても含まなくてもよい。他のタイプのスパークが可能であり、スパークは仮想環境全体にわたって任意のサイズまたは形状で構成され得る。スパークはまた、たとえば順序付けられたスパークに関連付けられた1つ以上の活動(または他のスパーク)を始動させるために、ユーザによって行なわれ得る何らかの順序で接続され得る。ターゲット(たとえばスパーク)については、少なくとも図3A〜図4に関連してより詳細に説明する。
いくつかの実現化例では、スパークは、予め定められた位置で提供され得る。いくつかの実現化例では、スパークは、ユーザがVR環境にいる間に特定のオプションを選択したことに基づいて、可変位置またはランダム位置で提供され得る。たとえば、いくつかのVR環境では、スパークは、ユーザが環境に入った方向とは異なる方向に配置されてもよい。いくつかの実現化例では、スパークは、システムがユーザからの特定の挙動を検出した場合に、ユーザの注目をトリガするために配置されてもよい。たとえば、ユーザが長時間じっと立っている場合、VRアプリケーション110は、ユーザは混乱しているか、道に迷っているか、または次に何をすべきかよく分かっていないと判断してもよい。これに応答して、VRアプリケーション110は、方向または他の対話をトリガするメニューまたは他のエリアにユーザを向けるために、1つ以上のスパークを提供する(たとえば、1つ以上のスパークの表示をトリガする)ことができる。スパークおよびターゲットは、ユーザが非接触ベースの入力または接触ベースの入力を提供することに応答してトリガされ得る。スパークおよびターゲットのトリガは、スパーク検出モジュール120によって検出され得る。スパーク検出モジュール120は、VR環境におけるユーザ入力および対話を検出するための1つ以上のセンサ116を含み、およびまたは当該センサ116と通信することができる。
いくつかの実現化例では、システム100は、1つ以上の特定のアクションを行なう前に、アクションを遅延させ、および/またはカウントダウンタイマーをトリガすることができる。いくつかの実現化例では、システム100は、アクションを行なうかどうかを判断する場合に、または、ターゲット(たとえばスパーク)を表示するかどうかを判断する場合に、ユーザに関連付けられた加速速度または減速速度を考慮に入れることができる。たとえば、ユーザが、VR機能性を実行するためのトリガを含むある特定のエリアを通って速やかに動く場合、システム100は、そのエリアへの増加した速度(すなわち加速)が、ユーザはそのエリア全体にわたってターゲット(たとえばスパーク)をトリガする意図がないということを示している、と判断できる。したがって、システム100は、加速の急な速度に基づいて、その特定のエリアでコンテンツをレンダリングしない(または、ターゲット(たとえばスパーク)をトリガしない)ことを自動的に判断できる。いくつかの実現化例では、そのような速度は、ユーザがVR環境とユーザとの対話をトリガする前に第1のエリアを通って別のエリアへ動くことを望んでいる、ということを示し得る。
いくつかの実現化例では、システム100は、モバイルデバイス102などのポータブル電子コンピューティングデバイスを含み得る。モバイルデバイス102は、仮想コンテンツをユーザに表示するためにHMDデバイス106に挿入され得る。他の例では、モバイルデバイス102は、コンピュータ化されたHMDデバイス(図示せず)と組合せて使用され得る。デバイス102またはHMDデバイス106は、仮想現実環境において仮想現実体験を生成することができる。
システム100は、任意の数のセンサ116(たとえば、追跡デバイス、感知デバイス、近接トリガなど)を含み得る。センサ116はデバイス102と通信していてもよい。いくつかの実現化例では、センサ116は、ユーザが動くことができる物理的空間内の電子コンピューティングデバイスにアクセスしているユーザに関連付けられた動きを検出するように構成される。物理的空間内のユーザの動きは次に、システム100によって、仮想環境の定義された座標系に従った、仮想現実環境におけるユーザの動きに変換される。システム100は、ある特定の期間にわたってユーザが行ない得る各動きに関連付けられた速度を判断するように構成された任意の数のプロセッサを含んでいてもよい。たとえば、システム100は、仮想現実環境にアクセスしているユーザに関連付けられたあらゆる動きを(センサ116および/またはデバイス102を使用して)検出することができる。
いくつかの実現化例では、動きは、仮想オブジェクトに向かう(たとえば、仮想オブジェクトの方向の)眼球運動(または頭部運動)に関連付けられる。いくつかの実現化例では、動きはユーザの眼球運動に関連付けられ、眼球運動または眼球注視は仮想オブジェクトから離れる方に向けられる。オブジェクトの方を見る、またはオブジェクトから目を離す動き(たとえば、眼球運動または固定)の速度は、約50ミリ秒〜約100ミリ秒の固定の後に対話型機能性をトリガするために使用され得る。いくつかの実現化例では、動きは、ユーザの手の運動に関連付けられる。たとえば、システム100は、手の動きが仮想オブジェクトの方に向けられているか、または仮想オブジェクトから離れる方に向けられているかを検出することができる。
動きに加えて、システム100は、動きを行なうユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離を検出することができる。距離は、仮想環境の定義された座標系内のユーザの一部分と少なくとも1つの仮想オブジェクトとの間の仮想距離を計算することによって判断され得る。速度および距離は、ユーザが特定の仮想オブジェクトに手を伸ばし、当該仮想オブジェクトの方を向き、または当該仮想オブジェクトを注視するための細かい関与モードまたは粗い関与モードを選択するために使用され得る。たとえば、ある期間にわたる動きに関連付けられた加速速度を判断することに応答して、システム100は、仮想環境のための第1の対話モードに関与できる。第1の対話モードは、仮想環境における表示のために仮想オブジェクト上の選択可能部分をトリガする、細かいピッチの表示モードであってもよい。選択可能部分は、速度と、ユーザのあるエリア(たとえば眼、手、脚など)から仮想オブジェクトまでの距離との検出後に提供されてもよい。そのようなモードは、仮想オブジェクト上での複雑な選択を可能にするためにトリガされてもよい。
いくつかの実現化例では、第2の対話モードがトリガされ得る。第2の対話モードは、ユーザが仮想オブジェクトに関連付けられたより大きい部分またはメニュー項目を選択できる粗いモードであってもよい。一般に、第2の対話モードは、仮想環境において、仮想オブジェクトの選択またはアクションを遂行するためにより低い精度が使用され得るオブジェクト上の選択可能部分を表示することを含んでいてもよい。いくつかの実現化例では、粗い選択モードは、眼球注視およびユーザによる追加運動(たとえば、眼球運動、手の運動など)を検出することに応答してトリガされてもよい。眼球注視は予め規定されたしきい値のカウントダウンをトリガすることができ、追加運動が時間しきい値内で検出された場合、仮想オブジェクトに関連付けられた追加の選択可能オプションまたは選択可能部分がユーザに表示され得る。いくつかの実現化例では、システム100は、当該期間にわたる動きに関連付けられた減速速度を判断することに応答して、仮想環境のための第2の対話モードに関与できる。
選択されたモードにかかわらず、システム100は、仮想現実環境において関与されたモードの表示を表示することができ、動きとある特定の仮想オブジェクトとに関連付けられた対話型機能性を実行するために関与されたモードの使用を可能にすることができる。いくつかの実現化例では、仮想オブジェクトに関連付けられた対話型機能性は、仮想オブジェクトに対応する非接触の選択可能メニューを含む。メニューは、仮想環境内でユーザによって選択されるいくつかの好適なメニュー項目を含み得る。
図1に示すように、例示的なシステム100は、ネットワーク101を通してデータを交換できる複数のコンピューティングデバイスを含む。これらのデバイスは、クライアントまたはサーバを表わしていてもよく、ネットワーク101または他のネットワークを介して通信可能である。クライアントデバイスは、VRコンテンツにアクセスするために使用され得る、モバイルデバイス、電子タブレット、ラップトップ、カメラ、VR眼鏡、または他のそのような電子デバイスを含んでいてもよい。
システム100は、モバイルデバイス102と、ラップトップコンピューティングデバイス104と、頭部装着型ディスプレイ(HMD)デバイス106と、VRコンテンツシステム108とを含む。デバイス102、104、および106は、クライアントデバイスを表わしていてもよい。モバイルデバイス102、ラップトップ104、およびHMDデバイス106は、1つ以上のプロセッサと1つ以上のメモリデバイスとを含み得る。デバイス102〜106は、VRコンテンツにアクセスし、VRコンテンツを制御し、および/または各それぞれのデバイスに含まれる表示装置上でVRコンテンツを表示することができる、クライアントオペレーティングシステムおよび1つ以上のクライアントアプリケーションを実行可能である。VRコンテンツシステム108は、サーバデバイスを表わしていてもよい。一般に、VRコンテンツシステム108は、仮想現実シーンを生成、修正、または実行可能なコンテンツおよび/または仮想現実ソフトウェアモジュールを格納する任意の数のリポジトリを含んでいてもよい。
HMDデバイス106は、仮想現実コンテンツを表示可能な仮想現実ヘッドセット、眼鏡、アイピース、または他のウェアラブルデバイスを表わしていてもよい。動作時、HMDデバイス106は、受信および/または処理された画像をユーザへ再生可能なVRアプリケーションを実行することができる。いくつかの実現化例では、VRアプリケーション110は、図1に示すデバイス102、104、106、または108のうちの1つ以上によってホストされ得る。
いくつかの実現化例では、モバイルデバイス102は、HMDデバイス106内に配置され、および/または位置し得る。モバイルデバイス102は、HMDデバイス106用の画面として使用され得る表示装置を含み得る。モバイルデバイス102は、VRアプリケーション110を実行するためのハードウェアおよび/またはソフトウェアを含み得る。
追加のデバイスが可能であり、そのようなデバイスは互いに置換されるように構成されてもよい。いくつかの実現化例では、デバイス102、104、106、および108は、ネットワーク101を使用して他のコンピューティングデバイスまたはコンピュータシステムと通信可能な、ラップトップまたはデスクトップコンピュータ、スマートフォン、携帯情報端末、ポータブルメディアプレイヤー、タブレットコンピュータ、ゲーミングデバイス、または他の適切なコンピューティングデバイスであり得る。
例示的なシステム100では、VRコンテンツシステムは、VRアプリケーション110を含み得る。VRアプリケーション110は、デバイス102、104、106、および108のうちのいずれかまたはすべての上で実行されるように構成され得る。HMDデバイス106は、たとえばVRコンテンツシステム108上のVRコンテンツにアクセスするために、デバイス102またはデバイス104に接続可能である。デバイス102または104はHMDデバイス106に(有線または無線)接続可能であり、HMDデバイス106は表示のためにVRコンテンツを提供可能である。
HMDデバイスがデバイス102またはデバイス104に無線接続される場合、接続は、ここに説明される高速無線通信プロトコルのうちの1つ以上の使用を含んでいてもよい。HMDデバイス106がデバイス102または104に有線接続される場合、有線接続は、デバイス102またはデバイス104に差し込むための適切なコネクタをいずれかの端に有するケーブルを含み得る。たとえば、ケーブルは、ユニバーサルシリアルバス(Universal Serial Bus:USB)コネクタを両端に含み得る。USBコネクタは同じUSBタイプのコネクタであってもよく、または、USBコネクタは各々異なるタイプのUSBコネクタであってもよい。さまざまなタイプのUSBコネクタは、USB Aタイプコネクタ、USB Bタイプコネクタ、マイクロUSB Aコネクタ、マイクロUSB Bコネクタ、マイクロUSB ABコネクタ、USB 5ピン ミニbコネクタ、USB 4ピン ミニbコネクタ、USB 3.0 Aタイプコネクタ、USB 3.0 Bタイプコネクタ、USB 3.0 マイクロBコネクタ、およびUSB Cタイプコネクタを含み得るものの、それらに限定されない。同様に、有線接続は、HMDデバイス106およびデバイス102またはデバイス104に差し込むための適切なコネクタをいずれかの端に有するケーブルを含み得る。たとえば、ケーブルは、ユニバーサルシリアルバス(USB)コネクタを両端に含み得る。USBコネクタは同じUSBタイプのコネクタであってもよく、または、USBコネクタは各々異なるタイプのUSBコネクタであってもよい。
いくつかの実現化例では、1つ以上のコンテンツサーバ(たとえばVRコンテンツシステム108)および1つ以上のコンピュータ読取可能記憶装置は、VRコンテンツをデバイス102〜106に提供するために、ネットワーク101を使用してコンピューティングデバイス102、104、106と通信可能である。いくつかの実現化例では、ネットワーク101は、公的通信ネットワーク(たとえば、インターネット、セルラーデータネットワーク、電話回線網を通したダイアルアップモデム)、または私的通信ネットワーク(たとえば、プライベートLAN、専用回線)であり得る。いくつかの実現化例では、コンピューティングデバイス102〜108は、1つ以上の高速有線および/または無線通信プロトコル(たとえば、802.11バリエーション、WiFi、ブルートゥース(登録商標)、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、イーサネット(登録商標)、IEEE802.3など)を使用して、ネットワーク101と通信可能である。
いくつかの実現化例では、モバイルデバイス102は、VRアプリケーション110を実行し、VR環境のためのコンテンツを提供することができる。いくつかの実現化例では、ラップトップコンピューティングデバイスは、VRアプリケーション110を実行し、1つ以上のコンテンツサーバ(たとえばVRコンテンツサーバ108)からコンテンツを提供することができる。1つ以上のコンテンツサーバおよび1つ以上のコンピュータ読取可能記憶装置は、HMDデバイス106での表示のためにコンテンツを提供するために、ネットワーク101を使用して、モバイルデバイス102および/またはラップトップコンピューティングデバイス104と通信可能である。
VRアプリケーション110は、注視追跡モジュール112と、運動追跡モジュール114とを含む。注視追跡モジュール112は、ユーザに関連付けられた注視/眼球運動を検出するために、1つ以上のセンサ、コンピューティングシステム、カメラ、および/または制御機構と連動可能である。1つ以上のセンサ、コンピューティングシステム、カメラ、および/または制御機構は、たとえばHMDデバイス106に収容されてもよい。注視追跡モジュール112は、ユーザの眼球注視の方向を追跡または監視する(すなわち、ユーザがどこを/どの方向を見ているかを追跡または監視する)ように構成され得る。一般に、注視追跡モジュール112によって行なわれる注視追跡は、定義された座標系に対する片眼または両眼の配向および位置の双方を追跡することを含んでいてもよい。
注視追跡モジュール112は、ユーザの眼の画像(たとえばビデオ画像)を受信することができる。たとえば、モジュール112は、HMDデバイス106における搭載カメラから、ユーザの眼球運動および注視方向を示す画像を受信または取得することができる。注視追跡モジュール112は、ユーザの注視方向を判断するために使用され得る注視方向情報を生成するために、画像を分析することができる。注視方向情報は、たとえばHMDデバイス106に表示されている画像のシーンに相関され得る。たとえば、注視方向は、HMDデバイス106にアクセスしているユーザの片眼または両眼を見るカメラを使用して、注視追跡モジュール112によって確認され得る。同様に、頭部追跡が、HMDデバイス106に通信可能に結合された、および/または関連付けられたセンサを使用して行なわれ得る。特に、モジュール112は、ユーザがシーンを見ていたときに何を直接見ていたかを判断するために、画像を使用することができる。
注視追跡モジュール112は、注視注目の順序および/または滞留位置ならびに滞留時間を識別するために、注視方向情報を使用できる。注視追跡モジュール112は、注視注目および/または滞留位置ならびに滞留時間に基づいて、仮想環境内に配置された何らかの予め規定されたターゲットの実行をトリガするかどうかを判断できる。たとえば、ユーザがある特定の仮想オブジェクトを注視しているとモジュール112が判断した場合、仮想オブジェクトを修正し、選択し、動かし、または他の態様で仮想オブジェクトと対話するための追加オプションをユーザに示すために、ターゲットが仮想オブジェクト上に表示され得る。
注視追跡モジュール112は、HMDデバイス106に位置するセンサまたはカメラからの情報を利用でき、ターゲット(たとえばスパーク)への注目の持続時間、および仮想環境に示された要素に対する経時的な注視注目の順序を含む、ユーザの注視注目をマッピングできる。注目および注視のパターンは、ある特定のターゲット(たとえばスパーク)および/またはアクションをトリガする信号として使用されてもよい。
選択のためにユーザにスパークを提供する場合、VRアプリケーションは、ユーザの注目を引くために、スパーク制御機構を強調表示する視覚的表示または音声ベースの表示を提供することができる。同様に、視覚的表示または音声ベースの表示は、スパークがユーザによって起動されると提供され得る。視覚的表示は、点灯、点滅、輪郭付け、強調表示、テクスチャ付け、上昇、下降、色変更、一部分を暗くしながら他の部分を明るくすること、一部分を明るくしながら他の部分を暗くすること、またはそれらの任意の組合せを含み得るものの、それらに限定されない。音声表示は利用可能な任意のシステム音声を含んでいてもよく、スパークの表示時に、ユーザがスパークによって規定された境界に出入りする際に、スパークの選択時に、ユーザによって要求された全スパークの除去時に、または、ユーザによって要求された特定の環境について利用可能な全スパークの表示時に起こり得る。
VR環境においてユーザ運動および眼球注視を精密に追跡することは、入力トリガとして眼球注視に依存する場合に、ターゲットおよび/またはスパークを有するユーザインターフェイスコンテンツを実現する場合に重要であり得る。精密な追跡は、眼球運動を取り込むためにカメラを使用して行なわれ得る。そのため、システム108は、ユーザがVR環境においてオブジェクトを選択する場合などにシステム108がユーザの意図を正しく認識することを保証するために、仮想オブジェクト(またはレンダリング)の一部(たとえば中心)に、ドット、1組の画素、画像、制御機構、または他のマーカーといったカーソルとして、スパークを表示するように構成され得る。このため、システム108はターゲット(たとえばスパーク)をさまざまなサイズで提供することができる。
一般に、スパークのサイズは、システム108がスパークと関連付ける起動時間を指図することができる。これは、スパークがより小さいほど、VR環境におけるユーザが、スパークにおけるアクションを起動する意図を持って小さいエリアに焦点を合わせることなくスパークを識別してトリガする可能性が低いためである。そのため、スパークは、仮想環境において数十画素から数十インチの空間に及び得る。スパークは任意のサイズまたは形状であってもよく、数例を挙げると、画素、ドット、画像、制御機構、ボックス、ボールとして図示され得る。いくつかの実現化例では、スパークは、中心が明るく外向きに消えていく点灯光であってもよい。
非限定的な一例では、ユーザがターゲット(たとえばスパーク)の近くをホバーすると、注視追跡モジュール112または運動追跡モジュール114は、(ユーザによって刺激された眼球注視または仮想運動により)ホバーを検出することができ、ホバーの検出に応答して、VRコンテンツシステム108は、即時のアクションのためにより細かいターゲット機構(すなわちスパーク)を表示することができる。より細かいターゲット機構はたとえば、オブジェクトの小さい部分を選択する、細かいピッチの正確モードであってもよい。即時のアクションは、たとえば、カウントダウントリガを待つのではなく、スパークに関連付けられたアクションを行なうためのものであってもよい。いくつかの実現化例では、スパークは、マーキングメニューまたは仮想制御機構などの複数のターゲットをトリガすることができる。いくつかの実現化例では、システム108は、エリアへのユーザの加速または減速を考慮に入れることができる。たとえば、ユーザがスパークのそばを動く際に自分の歩行速度を加速して、スパークの近くでホバーしたり停止したりしない場合、システム108はスパークをトリガしなくてもよい。これに代えて、ユーザが同じエリアへと減速する場合、システム108は、センサによって判断されたような、ユーザに関連付けられた速度の変化に基づいて、スパーク(およびスパークに関連付けられた任意のアクション)をトリガしてもよい。
一般に、運動追跡モジュール114は、スパークの近くを動くユーザの速度および精度を検出することができる。速度および精度は、多くのセンサ、カメラ、およびまたはデバイスを使用して検出され得る。たとえば、ユーザが仮想環境におけるスパークを速やかに通過する場合、VRコンテンツシステム108(すなわち、VRアプリケーション110)は、ユーザが運動のしきい値レベル、滞留時間のしきい値、または経過した眼球注視時間のしきい値を満たさなかったと判断してもよい。滞留時間または眼球注視時間の例示的なしきい値レベルは、スパークに関連付けられたアクションをトリガする前に、50ミリ秒〜100ミリ秒を含んでいてもよい。いくつかの実現化例では、しきい値は、ターゲット(たとえばスパーク)のサイズに基づいていてもよい。たとえば、(たとえば、表面積または体積が比較的小さい)小さいスパークは、短いカウントダウンタイマー(50ミリ秒のカウントダウンタイマー/しきい値)を有していてもよく、一方、(たとえば、表面積または体積が比較的大きい)大きいターゲット(たとえばスパーク)は、より長いカウントダウンタイマー(たとえば、2000ミリ秒のカウントダウンタイマー/しきい値)を有していてもよい。小さいスパークは数十画素であってもよく、一方、大きいターゲットは、仮想環境において表示されたコンピュータアイコンの標準サイズであってもよい。
上述の照明の例に戻ると、照明スイッチバンクはいくつかのスイッチを含んでいてもよく、ユーザは1つのスイッチを起動したいだけかもしれない。したがって、スパークは各照明スイッチ上に配置されてもよく、ユーザ運動または眼球注視対話に基づいてユーザによって選択(または起動)可能な位置に配置された小さい要素として表わされてもよい。ユーザは、ホバーする活動および/または見る活動を使用して選択を行なうことができる。注視追跡モジュール112および/または運動追跡モジュール114は、トリガされたスパークによって表わされる活動の実行をトリガするために、ユーザの眼球注視および/または運動をそれぞれ検出することができる。スパークはホバーされ、注視され、滞留され、および/または他の態様でトリガされてもよく、VRコンテンツシステム108は、仮想環境に関する特定の活動を行なうことによって、これらのアクションに応答することができる。この例では、VRコンテンツシステム108は、ユーザが自分の眼球注視または手を第1のスイッチの近くでホバーさせた場合に、第1のスイッチに関連付けられた照明を起動してもよい。
いくつかの実現化例では、HMDデバイス106は、ネットワーク化されたサーバベースの注視追跡モジュール112にアクセスする代わりに、搭載された注視追跡モジュールと、注視追跡に関連付けられた任意の関連ハードウェアおよびソフトウェアとを含む。そのような追跡情報は、VRコンテンツシステム108と共有され得る。加えて、スパーク生成モジュール118、スパーク検出モジュール120、および運動追跡モジュール114はまた、HMDデバイス106上で実行されるソフトウェアの一部として実行され得る。
非限定的な一例では、ユーザ(図示せず)は、HMDデバイス106に接続されたモバイルデバイス102を使用して、3D環境におけるVRコンテンツにアクセスすることができる。VR環境にいる間、ユーザは、動き回り、見回すことができる。システム100は、(注視追跡モジュール112を使用して)ユーザ眼球注視を追跡することができ、(運動追跡モジュール114を使用して)ユーザ運動を追跡することができる。ユーザ運動は、ユーザがVR環境内でどのように自分の身体(または身体部分を表わすデバイス)を動かしているかを示してもよい。ユーザ眼球注視は、ユーザがVR環境において何を見ているかを示してもよい。
図2は、モバイルデバイス102を用いてVRコンテンツにアクセスしているHMDデバイス106(またはVRデバイス)を示す図である。図2に示す例では、ユーザ202は、コンピューティングデバイス102に含まれる表示装置上で映画を見ていてもよい。そうするために、ユーザは、ユーザ202の両眼の上にデバイス106を配置することによって、HMDデバイス106を装着することができる。いくつかの実現化例では、図1を参照して、HMDデバイス106は、たとえば、1つ以上の高速有線および/または無線通信プロトコル(たとえば、WiFi、ブルートゥース、ブルートゥースLE、USBなど)を使用して、もしくは、HDMI(登録商標)インターフェイスを使用することによって、モバイルデバイス102上の表示と連動する/に接続することができる。接続は、デバイス106に含まれる画面上でユーザに表示するために、コンテンツをHMDデバイス106に提供することができる。
1つ以上のセンサがモバイルデバイス102上に含まれてもよく、VR環境に入力を提供するために、デバイス102およびHMDデバイス106にアクセスしているユーザによってトリガされ得る。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体認証センサ、温度センサ、湿度センサ、および周囲光センサを含み得るものの、それらに限定されない。モバイルデバイス102はこれらのセンサを使用して、VR環境におけるデバイス102の絶対位置および/または検出された回転を判断可能であり、それらは次に、VR環境への入力として使用され得る。センサはモバイルデバイス102上に含まれてもよく、またはモバイルデバイス102から分離されてもよく、たとえば、ユーザの加速または減速、もしくはユーザの増加速度または減少速度、もしくはユーザが行なった他の関連する動きを判断することができる。たとえば、モバイルデバイス102は、携帯電話、レーザポインタ、コントローラ、リモコンなどとしてVR環境に組込まれてもよい。VR環境に組込まれた場合の、ユーザによるモバイルデバイス102の位置付けは、ユーザがVR環境に携帯電話、レーザポインタ、コントローラ、リモコンなどを位置付けることを可能にし得る。
いくつかの実現化例では、モバイルデバイス102上に含まれる1つ以上の入力デバイスは、VR環境への入力として使用され得る。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、およびマイクロホンを含み得るものの、それらに限定されない。デバイス102がVR環境に組込まれた場合にモバイルデバイス102上に含まれる入力デバイスと対話しているユーザは、ある特定のアクションがVR環境において生じるようにすることができる。たとえば、モバイルデバイス102は、映画制御機構206、208を有する携帯電話としてVR環境に組込まれてもよい。モバイルデバイス102上のある特定のボタンを押しているユーザは、HMDデバイス102においてレンダリングされている映画を再生し、一時停止し、早送りし、または巻き戻ししてもよい。同様に、モバイルデバイス102上のボタンまたはスパークは、映画の音声のボリュームを制御するためにVR環境に組込まれてもよい。この例では、ユーザ202は、HMDデバイス106で表示されている映画に対してアクションを行なうために、QRコード(登録商標)204を選択し、制御機構206を再生し、および/または、制御機構208を早送りもしくは巻き戻しすることができる。これに代えて、ユーザは、デバイス102を使用して映画コンテンツを制御しなくてもよく、代わりに、モバイルデバイス制御機構204、206および208によって表わされるのと同じアクションを行なうために、HMD106において表示されたレンダリングされた仮想画面上またはその近くの制御機構を視覚的に注視してもよい。たとえば、HMDデバイス106においてユーザのためにレンダリングされている映画を早送りするには、ユーザは、モバイルデバイス102の画面を見るかのようにモバイルデバイス102を持ち上げて、眼球注視、頭部注視(head gaze)などを使用して早送りアイコン208を選択してもよい。このように、システム100は、手の追跡、頭部追跡、および注視追跡を使用して、ユーザが、提供されたターゲット(たとえばスパーク)と対話することに加え、VR環境においてレンダリングされた制御機構と対話することを可能にすることができる。
いくつかの実現化例では、モバイルデバイス102のタッチスクリーンは、VR環境においてタッチパッドとしてレンダリングされ得る。ユーザは、モバイルデバイス102のタッチスクリーンと対話することができる。対話は、VR環境におけるレンダリングされたタッチパッド上の運動としてレンダリングされてもよい。レンダリングされた運動は、VR環境においてオブジェクトを制御することができる。
いくつかの実現化例では、モバイルデバイス102上に含まれる1つ以上の出力デバイスは、VR環境においてデバイス102のユーザに出力および/またはフィードバックを提供することができる。出力およびフィードバックは、視覚、触覚、または音声によるものであってもよい。出力および/またはフィードバックは、振動、1つ以上の照明またはストロボをオンオフすることもしくは点滅および/または明滅させること、アラームを鳴らすこと、チャイムを鳴らすこと、歌を演奏すること、および音声ファイルを演奏することを含み得るものの、それらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含み得るものの、それらに限定されない。
いくつかの実現化例では、モバイルデバイス102は、コンピュータによって生成された3D環境において別のオブジェクトとして現われてもよい。上述の例で説明されたように、モバイルデバイス102は、VR環境においてレーザポインタとして現われてもよい。ユーザによるモバイルデバイス102との対話(たとえば、タッチスクリーンを回転させ、振動させること、タッチスクリーンに触れること、タッチスクリーンを横切って指をスワイプすること)は、VR環境におけるオブジェクトとの対話として解釈され得る。VR環境におけるレーザポインタの例では、モバイルデバイス102は、コンピュータによって生成された3D環境において仮想レーザポインタとして現われる。ユーザがモバイルデバイスを操作する際、ユーザはVR環境においてレーザポインタの運動を見て、VR環境におけるターゲットおよび/またはオブジェクトを選択できる。
図3Aおよび図3Bは、VRユーザインターフェイスの一例を示す例示的な図である。この例では、カーソルインターフェイス302A〜302Bが、ユーザの眼球注視および方向に依存して異なる体験をユーザに提供するように構成され得る。たとえば、仮想環境内に特定のスパークを配置することができ、ユーザはこれらのスパークを、それらが仮想環境全体にわたって配置された制御機構であるかのように見ることができる。これらのスパークは、仮想環境におけるコンテンツの鑑賞を損ない、したがって存在感を減少させ、おそらくはVR体験を劣化させ得るため、VRアプリケーション110(たとえばスパーク検出モジュール120)は、特定のスパークをいつ表示するか、または表示するかどうか(たとえば、特定のスパークをいつあらわにするか、またはあらわにするかどうか、特定のスパークの表示状態を(不透明から透明に、またはその逆に)いつ変更するか、または変更するかどうか)を判断することができる。スパーク生成モジュール118は、ユーザの眼球注視の焦点方向に基づいて、スパークを配置するための位置を判断することができる。スパークの表示またはスパークの除去は、ユーザの視野、仮想オブジェクトへのユーザの近接に基づいていてもよく、もしくは、スパークで、またはその近くで受信された入力に基づいていてもよい。このように、VRアプリケーション110は(スパーク生成モジュール118およびスパーク検出モジュール120を介して)、そのようなインターフェイスを表示することがユーザのVR体験を損なわないであろう時間に、漸進的でジャストインタイムの仮想現実カーソルインターフェイス(たとえばスパーク)をユーザに提供することができる。
図3Aに示すように、ユーザは、VR環境において抽象画304を見ていてもよい。カーソルインターフェイス302Aは、スパークがユーザに提供されない状態で示される。これは、ユーザが画304を見ていて、芸術を鑑賞するポイントが芸術を視覚的に楽しむことである場合にVRアプリケーション110がスパークまたは他の制御機構の提供を妨げたくないかもしれないためであり得る。この鑑賞ポイントは、ユーザの注視注目および/または滞留位置ならびに滞留時間に依存して、注視追跡モジュール112によって判断され得る。したがって、VRアプリケーション110は、スパークまたは他の制御機構を抑制して、そのような制御機構が画304よりもユーザの注目を集めるのを防止することができる。
図3Bに示すように、ユーザは画から離れる方に歩き始め、そうする際に、ユーザは、自分がユーザインターフェイス要素(たとえば、スパーク、ボタン、スライダ、リスト、対話型要素など)と対話する意図を持っていることをVRアプリケーション110に示してもよい。このユーザの意図は、たとえばユーザに関連付けられた動きまたは運動、もしくは、鑑賞ポイントが芸術を視覚的に楽しむことであった場合に検出されたものとは異なるユーザの注視注目および/または滞留位置ならびに滞留時間を、注視追跡モジュール112または運動追跡モジュール114が判断することに関連して、VRアプリケーション110によって検出される。そのような要素を提供するための予め規定された(すなわち、システム100によって規定された)期間(すなわち、数ミリ秒〜数秒)が経過すると、VRアプリケーション110はスパーク306またはスパーク308を表示することができ、これにより、ユーザが鑑賞しているものは対話型であるということをユーザに確認する。そのような要素の表示は、積極的なVR体験を提供する仮想オブジェクトの正確なターゲット化および選択をユーザに提供するよう機能できる。ユーザがそのような対話型要素の境界の外側を見ると、要素は再び目に見えなく(または透明に)なってもよい。たとえば、ユーザが境界310の上方を注視すると、ユーザはスパーク306および308の位置を包囲するVR環境におけるコンテンツに興味を持っていないと判断されるため、スパーク306およびスパーク308は見えなくなってもよい。いくつかの実現化例では、カーソルインターフェイス302A〜Bは、ユーザが対話型要素の境界を横断する場合の、および/または、眼球注視選択もしくは加速減速選択をトリガした際の柔らかい衝突音といった音によって強化されてもよい。いくつかの実現化例では、VRアプリケーション110は、ユーザがVR環境と対話している間に、ユーザに関連付けられた眼球注視および/または運動に基づいて、アプリケーション110によって表示されたスパーク306、308の挙動を修正することができる。
図4は、ユーザがVR HMDデバイスの画面上で見ることができるVR環境の画像400を示す図である。この例では、ユーザ(たとえばユーザ202)は、図2に示すようにHMDデバイス106を通してコンテンツを見ていてもよい。ユーザ202は、仮想的にレンダリングされたユーザ402によって示されるように、VR環境においてレンダリングされ得る。たとえば、画像400は、ユーザ202をVR環境に投影/レンダリングし、ユーザをユーザ402として示す。他のレンダリングが可能である。たとえば、ユーザ全身ではなく、VR環境において対話する両手などのユーザ402の一部分がレンダリングされ得る。画像400は、コーナーの鑑賞位置からシミュレートされた上半身のレンダリングを含む。ここで、ユーザ402はVR環境内を指さして示されており、それは、ユーザ402が実際にHMDデバイス106の前で指さす際のユーザの腕の位置を示していてもよい。
いくつかの実現化例では、VR環境は、ユーザの一部分を描写または表示しなくてもよい。代わりに、システム100は、対話型要素に近づくユーザの両手または他の部分を描写することなく、そのような対話型要素をユーザに示してもよい。これは、ユーザのアクションがスパークおよび/またはターゲットをトリガすることをユーザに示し得るものの、それらのアクションは、アクセスを試みるユーザにとって現在利用可能ではないかもしれない。
いくつかの実現化例では、HMDデバイス106は、VR環境においてレンダリング可能なコンピューティングデバイス(たとえばモバイルデバイス102)、コントローラ、または他のデバイスの3D運動を認識、監視および/または追跡可能なハードウェアおよびソフトウェアを含み得る。たとえば、モバイルデバイス102がHMDデバイス106に対するある範囲の位置の前に配置され、または当該範囲内に保持される場合、モバイルデバイスは環境においてレンダリングされてもよく、リアルタイムの位置および配向データをVRアプリケーション110に提供するよう機能できる。そのため、VRアプリケーション110は、VR環境においてデバイス102を、実際のデバイス102の検出された位置および配向でリアルタイムでレンダリングできる。
図4に示す例では、ユーザ402は、シミュレートされた居間に足を踏み入れてもよく、居間を通って歩くユーザとしてVR環境において対話していてもよい。ここに示すVR環境は、芸術作品404、406および408と、画像フレーム410と、音楽プレーヤー412(たとえば蓄音機)と、照明414とを含む。VR環境はまた、多くのターゲット(たとえばスパーク)416〜432を含み、スパーク416〜432は、ユーザがそれらに接近する際にトリガされ得る。いくつかの実現化例では、VRアプリケーション110は(たとえばスパーク検出モジュール120を使用して)、ユーザ402によって呼び出された対応する眼球注視経路434〜450のうちの1つを検出することができる。
非限定的な一例では、HMDデバイス106を装着しているユーザは、VR環境におけるオブジェクトを選択するために、眼球注視追跡および頭部位置を使用することができる。(実際のユーザ202からのアクションによってシミュレートされた)ユーザ402が項目404〜414の集合を見る際、ユーザの注視は、経路(たとえば434〜450)に沿って、ある要素から別の要素にシフトする。図示された例では、ユーザ402に関連付けられた注視は、経路434〜450に沿ってシフト可能である。経路は、ユーザ402が自分の注視をある検出量の時間集中させる、VR環境における位置を表わす。たとえば、ユーザが例示的な仮想の居間に足を踏み入れたとき、照明414はオフであってもよい。照明の方を、より具体的には(照明414上のまたはその近くの)スパーク416を、予め定められた量の時間(たとえば3秒)注視すると、スパーク416への注視は、照明414をオンにするようVRアプリケーション110をトリガすることができる。そのため、照明をちらっと見ることは、照明414についてのオンまたはオフ状態をトリガしないかもしれない。いくつかの実現化例では、スパークはカウントダウンタイマーなしで構成可能であり、検出された注視によって3秒の時間遅延で遅延されるのではなく、ちらっと見ることでトリガされ得る。オブジェクトの機能性を呼び出すために眼球注視を使用してホバー状のトリガを提供することは、ユーザが、近接ベースの機能性を直ちにトリガするのではなく、ホバリングによって仮想コンテンツおよびオブジェクトと意図的に対話することを可能にするという利点を提供できる。ホバー状のトリガにより、ユーザは、オブジェクトから機能性を呼び出すために、ある特定量の時間、意図的に仮想オブジェクトをじっと見るかまたは仮想オブジェクトの方へ動くことを学習することができる。
同様に、ユーザ402は、照明414の方へ歩くか手を振ることができ、VRアプリケーション110は、(照明414の現状に基づいて)照明414をオンまたはオフにするようトリガするために、スパーク416に関与する歩行速度またはジェスチャー速度を判断するように構成されてもよい。たとえば、アプリケーション110は、モバイルデバイス102上の加速度計および/またはGPSデバイスに関与し得る。VRアプリケーション110がそのような速度を検出すると、照明414はオンにスイッチされ得る。いくつかの実現化例では、スパーク416は、照明414に関与するための選択可能な制御機構としてユーザに示されてもよい。いくつかの実現化例では、スパーク416の選択がスパーク416の近くの何かを制御できることを示すために、スパーク416はちらちら光るかまたは点灯してもよい。いくつかの実現化例では、ユーザ402がスパーク416のある特定の(またはしきい値の)範囲内に入るまで、スパーク416は現われなくてもよい。いくつかの実現化例では、ユーザが照明414のある特定の範囲内に到達するまで、スパーク416は現われなくてもよい。いくつかの実現化例では、ユーザがスパーク416を通って歩くと、スパーク416はトリガされ得る。
別の非限定的な一例では、ユーザ402は、抽象的な芸術作品404の方へ歩き始めてもよい。この例では、芸術作品404を鑑賞するポイントが、制御機構を介して芸術作品と対話することではなく、芸術作品404における線およびコンテンツを楽しむことであるため、スパーク418は、芸術作品404に接近する際にユーザ402に示されなくてもよい。ユーザの接近または眼球注視を検出するとスパーク418がユーザに表示されることになっていたならば、それは、ユーザの芸術作品404の楽しみを損なうかもしれない。しかしながら、システム100によって行なわれる眼球注視検出は、スパーク制御機構418を表示する前の長いトリガ時間に設定され得る。たとえば、VRアプリケーション110は、ユーザが芸術作品404へのしきい値近傍内に5分間いること、または芸術作品404の規定されたゾーン内で3分間注視することといった、しきい値量の時間が満たされた後に制御機構として提供されるように、スパーク418を構成することができる。しきい値で、VRアプリケーション110はスパーク418を提供でき、スパークでのユーザ402による短い注視(たとえば50ミリ秒)が検出可能であり、スパーク418に関連付けられた制御機構が表示可能である。たとえば、表示される制御機構は、芸術作品404の芸術家、芸術作品404の希少性、または芸術作品404の複製の購入価格といった、選択可能な特徴のメニューを含んでいてもよい。
いくつかの実現化例では、スパーク418は、ある特定のジェスチャーによってトリガされてもよい。たとえば、スパーク418は、ユーザ402が芸術作品に触れようと動き出さない限り、ユーザ402に示されなくてもよい。芸術作品404に近づくと、スパーク418は、ユーザが芸術作品404に到達する前に表示されるようトリガされ得る。ユーザ402が芸術作品404に到達するかまたは芸術作品404の方へ動くと、スパーク418は、腕または他の身体部分の速やかな運動によってトリガされ得る。
スパーク418と同様の態様で、スパーク422は、ある特定のしきい値が満たされるまでユーザに示されなくてもよい。たとえば、ユーザ402が芸術作品406の空間へ速やかに動く場合、または、ユーザの注視が芸術作品406の近くで動く場合、スパーク422がトリガしてもよく、ユーザは、スパーク422をじっと見ることができ、または、スパーク422のトリガによって提供されるメニュー項目をじっと見ることができる。この例では、スパーク422は、たとえば芸術作品406の鑑賞を向上させるために照明452をオンにするよう制御機構をトリガしてもよい。ユーザ402は、照明452をオンにするためにそのような制御機構を(眼球注視または滞留時間を介して)選択することができる。同様のトリガがスパーク424および426で起こり得る。それらのスパークは、VRアプリケーション110によって予め規定された条件をユーザが満たすまで、提供されなくてもよい。条件とは、眼球注視経過時間、注視または運動の滞留時間、ユーザの運動、ユーザによって行なわれるジェスチャー、注視または滞留またはユーザ運動と組合された外部制御機構などであってもよい。
別の非限定的な一例では、ユーザ402は、電子フォトフレーム410の方へ歩くかまたは電子フォトフレーム410の方を注視してもよい。ユーザは、フレーム内の写真を見ることができ、いくつかの実現化例では、フレーム410上の画像のスクローリングに関与するためのスパーク430および/または432が提供され得る。たとえば、フレーム410に近づく際、ユーザがフレーム410を注視していることをVRアプリケーション110が検出すると、スパーク430および432はユーザ402に提供されてもよい。ユーザがフレーム410に近づくものの、フレームのそばを速やかに通過して仮想の居間の別のエリアに入った場合、VRアプリケーション110はそのような速度または運動(すなわち、フレーム410のエリアへの加速)を検出して、スパーク430および432をトリガしないと判断することができる。これは、VRソフトウェアが、フレーム410のそばを通過する加速を検出し、ユーザはフレーム410またはフレーム410に関連付けられた制御機構を見ることに興味がないと推定したためである。ユーザがフレーム410の近くのエリアに入った場合(すなわち、フレーム410のエリアへの減速)、スパーク430および432は、ユーザ402によって行なわれる注視時間、ジェスチャー、または他の対話型表示を介した選択のために提供されてもよい。
いくつかの実現化例では、スパーク430および432は、スクロールボタン制御機構として提供されてもよい。ユーザがリストにおけるコンテンツを選択するために、または格納された項目中を前後に動くためにトラックパッドまたはマウスを使用する方法と同様に、スパーク430および432は、スクロールボタンを選択するために、もしくは、リストにおける項目または格納された項目(たとえばファイル、写真、本など)を加速または減速して通るために、眼球注視を使用して選択され得る。たとえば、ユーザ402は、フレーム410まで歩き、制御機構432を注視して、フレーム410上の写真をスクロールし始めることができる。スクローリングは、一旦開始されると指定されたペースで継続可能であり、もしくは、ユーザがスパーク430または432を見るたびに写真をスクロールするように構成可能である。すなわち、ユーザは、フレーム410における表示された写真を進めるために、スパーク432を注視してもよい(注視448)。スパーク432から目を離すことによって、フレーム410は、たとえばユーザの注視の変化に基づいて、写真を進めることを停止できる。いくつかの実現化例では、スパーク430および432は常に示され、写真を進めることは1ミリ秒の注視時間を伴う。すなわち、そのような状況で前後にスクロールすることはユーザ402に懸念をもたらさないため、VRアプリケーション110は、写真を進めるためにほぼゼロの時間しきい値/滞留時間要件を関連付けることができる。注視を変更する際のユーザの速さまたは遅さも、写真をスクロールする速度を選択するためにVRアプリケーション110によって使用され得る。すなわち、VRアプリケーション110は、加速または減速された注視運動および/または頭部運動を分析することによって、ユーザが意図したスクロール速度を判断および/または検出することができる。同様のスクロール制御機構、および、当該スクロール制御機構または当該制御機構に関連付けられた表示されたリストへの加速または減速の検出が、VR環境における他の項目上で使用され得る。たとえば、同様のスパークが、文書、メニュー、再生リストなどにおける注視ベースのスクロール制御機構として使用されるために生成され得る。
一般に、運動、速度、および/または眼球注視が、フレーム410上に表示されるコンテンツをトリガするために使用され得る。同様に、ユーザがたとえば壁上の追加コンテンツを見るためにフレーム410の右を見た場合、フレーム410はスクロールを停止してもよい。すなわち、スパーク検出モジュール120はユーザ402の眼球注視を入力として使用して、ユーザの注視が他のコンテンツを見るために右にシフトしたため、ユーザの意図はもはやテレビ上のフレーム410のコンテンツを見ることではない、と判断することができる。
別の非限定的な一例では、ユーザ402が音楽プレーヤー412の音楽を変更したい場合がある。ここでは、音楽プレーヤー412は、音楽の演奏を制御する電子デバイスに接続されると電子入力を受け付けるように再構成された古い蓄音機であってもよい。ユーザ402は、歌をスクロールし、歌を演奏し、または他の態様で音楽を構成するために使用され得るメニューをトリガするために、スパーク428を注視し得る(注視450)。ユーザが音楽プレーヤー412のエリアへと減速すると、スパーク428がユーザに提供されてもよい。いくつかの実現化例では、ユーザの注視とエリアへの減速との組合せは、スパーク428を現われるようトリガし、またはそれに代えて、スパークからのメニューを現われるようトリガすることができる。
いくつかの実現化例では、ある特定のスパークへのトリガは、ユーザが発言した言葉またはフレーズに基づいていてもよい。たとえば、ユーザが「これを棚に置いてください」と発言した場合、VRアプリケーション110は、ユーザが(自分が指さしている、または保持している)本をVR環境における棚に移動させる意図を有するということを、注視検出に基づいて推論することができる。「これを棚に置いてください」という音声コマンドの検出に応答して、VRアプリケーション110は、発言に関連付けられた眼球注視を検出でき、ユーザの(眼球注視を介した)本の選択を点灯させ、輪郭付けし、強調表示し、または他の態様で表示することができる。この表示は、アプリケーション110が、ユーザは自分がVR環境において現在保持している本を示すために「これ」という代名詞を使ったと判断したことを、ユーザに伝えることができる。この表示は、VRアプリケーション110が要求されたアクションを行なうであろうオブジェクト上に視覚的フィードバックを提供できる。そのため、ユーザの眼球注視は、特定のコンテキストを示し、関連付けられたアクションをコンテキストにおける項目に当てはめるために、使用され得る。表示は、点灯、点滅、輪郭付け、強調表示、テクスチャ付け、上昇、下降、色変更、一部分を暗くしながら他の部分を明るくすること、一部分を明るくしながら他の部分を暗くすること、またはそれらの任意の組合せを含み得るものの、それらに限定されない。
図5は、仮想環境におけるターゲット(たとえばスパーク)と対話するためのプロセス500の一実施形態を図解するフローチャートである。この例では、少なくとも1人のユーザが、コンピューティングデバイス、および頭部装着型ディスプレイ、たとえばVRアプリケーション110を実行するHMDデバイス106などを使用して、仮想環境にアクセスしていてもよい。仮想環境はHMDデバイス106上に表示され、VRアプリケーション110または他のアプリケーションを介して制御されてもよい。
図5に示すように、ブロック502で、方法は、VRアプリケーション110が、仮想環境のために、非接触ターゲットである複数の非接触ターゲット(たとえばスパーク)を生成して表示するステップを含み得る。各ターゲットは、仮想環境において、仮想環境の定義された座標系に対する位置に配置され得る。スパークは、非接触ターゲットと考えられてもよい。なぜなら、ユーザは、眼球注視感知、頭部注視感知、手の運動感知、近接感知、ジェスチャー感知、音声感知、エリアへのユーザまたはオブジェクトの加速または減速の感知、環境によって感知された運動を提供するためのVR環境におけるオブジェクトとの仮想デバイスの対話、温度感知などを含むものの、これらに限定されない非接触方法によって、スパークに関連付けられた機能性をトリガでき得るためである。
非接触ターゲットは各々、特定の仮想オブジェクトおよび/または仮想シーンに関連付けられた対話型機能性を含んでいてもよい。いくつかの実現化例では、仮想オブジェクトに関連付けられた対話型機能性は、VR環境における1つ以上の仮想オブジェクトに対応する非接触の選択可能メニューを含む。いくつかの実現化例では、非接触ターゲットは、上述のようなスパーク、VRオブジェクト、または他のVR要素によって表わされてもよい。
ブロック504で、方法500は、仮想環境において第1の非接触入力を検出するステップを含んでいてもよい。非接触入力は、仮想環境の座標系に対する、VR環境内の非接触ターゲットのうちの少なくとも1つに関連付けられた位置に対応していてもよい。いくつかの実現化例では、第1の非接触入力は、仮想環境にアクセスしているユーザに関連付けられた減速速度を含んでいてもよい。たとえば、ユーザがスパークの近くのエリアへと減速する場合、VRアプリケーション110は、ユーザが遅くなったことはスパークに関連付けられた1つ以上の仮想オブジェクトへの関心を示すという判断に基づいて、スパークを表示されるようトリガしてもよい。
同様に、第1の非接触入力は、ユーザに関連付けられた加速速度を含み得る。加速速度は、ユーザがスパークを見ること、トリガすること、または速やかにトリガすることを望んでいるということをVRアプリケーション110に示してもよい。たとえば、ユーザが音楽プレーヤー制御ノブの近くで速やかなジェスチャーを行なった場合、VRアプリケーションは、ジェスチャーの速度に基づいて音楽プレーヤーのボリュームを増減させるよう、スパークをトリガしてもよい。いくつかの実現化例では、スパークへの加速は、ユーザがスパークをトリガすることを望まず、代わりに、部屋を通って別のエリアへ動いていることを示していてもよい。
ブロック506で、方法500は、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断するステップを含んでいてもよい。たとえば、VRアプリケーション110は、複数の非接触ターゲットについてのトリガ情報を取得することによって、第1の非接触入力が予め規定されたしきい値を満たすかどうかを判断することができる。トリガ情報は、非接触ターゲット(たとえばスパーク)に関連付けられた対話型機能性を実行するための表示に対応していてもよい。
トリガ情報は、時間、眼球注視、および/またはユーザ運動についての予め規定されたしきい値を含んでいてもよい。たとえば、非接触入力に基づいて非接触ターゲットの表示をトリガするための予め規定されたしきい値は、眼球注視の長さまたは角度を含んでいてもよい。特に、たとえばユーザが非接触ターゲットの、またはその近くの方向を200ミリ秒注視する場合、VRアプリケーション110は、50〜400ミリ秒の眼球注視に対する予め規定されたしきい値にアクセスすることができ、ユーザの眼球注視(200ミリ秒)がこの範囲内に該当すると判断することができる。したがって、アプリケーション110は、非接触ターゲットを表示されるようトリガすることができる。いくつかの実現化例では、眼球注視はまた、非接触ターゲットに関連付けられた対話型機能性をトリガすることができる。追加のトリガタイプが可能であり、上述の非接触入力を含み得るものの、それに限定されない。
ブロック508で、方法500は、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、少なくとも1つの非接触ターゲットを当該位置で提供するステップを含んでいてもよい。第1の非接触入力がしきい値を満たすかどうかを判断するステップはまた、ユーザに関連付けられた意図を判断するステップと、仮想環境における初期位置とユーザについての運動速度とを判断するステップとを含み得る。たとえば、VRアプリケーションは、ユーザの感知された運動および/または眼球注視に基づいて、ユーザの意図を感知または推論することができる。第1の非接触入力がしきい値を満たすかどうかを判断するステップはさらに、対話型機能性を実行するための信頼レベルを取得するために、意図および運動速度をトリガ情報と比較するステップを含み得る。いくつかの実現化例では、意図を判断するステップは、ユーザに関連付けられた眼球注視の加速または減速を分析するステップを含む。
ブロック510で、プロセス500は、当該位置で第2の非接触入力を検出するステップに応答して、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行するステップを含んでいてもよい。いくつかの実現化例では、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む。いくつかの実現化例では、第2の非接触入力は、ユーザに関連付けられた眼球注視を含み、眼球注視は、対話型機能性をトリガするために固定される。この眼球注視は、約50ミリ秒〜約100ミリ秒の固定後に対話型機能性をトリガするように構成されてもよい。
いくつかの実現化例では、第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、ユーザに関連付けられた眼球注視方向を検出するステップを含む。分析は、頭部装着型デバイスに配置された1つ以上のカメラデバイスによって行なわれ得る。いくつかの実現化例では、VRアプリケーションは、第2の非接触入力を検出するステップに応答して、複数の非接触制御機構を当該位置で提供することができる。複数の非接触制御機構は、ここに説明された眼球注視、ジェスチャー、運動、音、または他の非直接接触方法を用いて、ユーザによって選択され得る。
図6は、ここに説明される手法を用いて使用され得る汎用コンピュータデバイス600および汎用モバイルコンピュータデバイス650の例を示す。コンピューティングデバイス600は、プロセッサ602と、メモリ604と、記憶装置606と、メモリ604および高速拡張ポート610に接続している高速インターフェイス608と、低速バス614および記憶装置606に接続している低速インターフェイス612とを含む。コンポーネント602、604、606、608、610、および612の各々は、さまざまなバスを使用して相互接続されており、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。プロセッサ602は、コンピューティングデバイス600内で実行される命令を処理可能であり、これらの命令は、GUIのためのグラフィック情報を、高速インターフェイス608に結合されたディスプレイ616などの外部入出力デバイス上に表示するために、メモリ604内または記憶装置606上に格納された命令を含む。他の実現化例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数のタイプのメモリとともに適宜使用されてもよい。加えて、複数のコンピューティングデバイス600が接続されてもよく、各デバイスは(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の部分を提供する。
メモリ604は、情報をコンピューティングデバイス600内に格納する。一実現化例では、メモリ604は1つまたは複数の揮発性メモリユニットである。別の実現化例では、メモリ604は1つまたは複数の不揮発性メモリユニットである。メモリ604はまた、磁気ディスクまたは光ディスクといった別の形態のコンピュータ読取可能媒体であってもよい。
記憶装置606は、コンピューティングデバイス600のための大容量記憶を提供可能である。一実現化例では、記憶装置606は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスのアレイといった、コンピュータ読取可能媒体であってもよく、または当該コンピュータ読取可能媒体を含んでいてもよい。コンピュータプログラム製品が情報担体において有形に具体化され得る。コンピュータプログラム製品はまた、実行されると上述のような1つ以上の方法を行なう命令を含んでいてもよい。情報担体は、メモリ604、記憶装置606、またはプロセッサ602上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ608はコンピューティングデバイス600のための帯域幅集約的な動作を管理し、一方、低速コントローラ612はより低い帯域幅集約的な動作を管理する。機能のそのような割当ては例示に過ぎない。一実現化例では、高速コントローラ608は、メモリ604、ディスプレイ616に(たとえば、グラフィックスプロセッサまたはアクセラレータを介して)、および、さまざまな拡張カード(図示せず)を受付け得る高速拡張ポート610に結合される。この実現化例では、低速コントローラ612は、記憶装置606および低速拡張ポート614に結合される。さまざまな通信ポート(たとえば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入出力デバイスに、もしくは、スイッチまたはルータなどのネットワーキングデバイスに、たとえばネットワークアダプタを介して結合されてもよい。
コンピューティングデバイス600は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、標準サーバ620として、またはそのようなサーバのグループで複数回実現されてもよい。それはまた、ラックサーバシステム624の一部として実現されてもよい。加えて、それは、ラップトップコンピュータ622などのパーソナルコンピュータにおいて実現されてもよい。これに代えて、コンピューティングデバイス600からのコンポーネントは、デバイス650などのモバイルデバイス(図示せず)における他のコンポーネントと組合されてもよい。そのようなデバイスの各々は、コンピューティングデバイス600、650のうちの1つ以上を含んでいてもよく、システム全体が、互いに通信する複数のコンピューティングデバイス600、650で構成されてもよい。
コンピューティングデバイス650は、数あるコンポーネントの中でも特に、プロセッサ652と、メモリ664と、ディスプレイ654などの入出力デバイスと、通信インターフェイス666と、トランシーバ668とを含む。デバイス650にはまた、追加の格納を提供するために、マイクロドライブまたは他のデバイスなどの記憶装置が設けられてもよい。コンポーネント650、652、664、654、666、および668の各々は、さまざまなバスを使用して相互接続されており、当該コンポーネントのうちのいくつかは、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。
プロセッサ652は、メモリ664に格納された命令を含む、コンピューティングデバイス650内の命令を実行可能である。プロセッサは、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサは、たとえば、ユーザインターフェイス、デバイス650が実行するアプリケーション、およびデバイス650による無線通信の制御といった、デバイス650の他のコンポーネント同士の連携を提供してもよい。
プロセッサ652は、ディスプレイ654に結合された制御インターフェイス658およびディスプレイインターフェイス656を介してユーザと通信してもよい。ディスプレイ654は、たとえば、TFT LCD(Thin-Film-Transistor Liquid Crystal Display:薄膜トランジスタ液晶ディスプレイ)、またはOLED(Organic Light Emitting Diode:有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェイス656は、ディスプレイ654を駆動してグラフィカル情報および他の情報をユーザに提示するための適切な回路を含んでいてもよい。制御インターフェイス658は、ユーザからコマンドを受信し、それらをプロセッサ652に送出するために変換してもよい。加えて、デバイス650と他のデバイスとの近接エリア通信を可能にするように、外部インターフェイス662がプロセッサ652と通信した状態で設けられてもよい。外部インターフェイス662は、たとえば、ある実現化例では有線通信を提供し、他の実現化例では無線通信を提供してもよく、複数のインターフェイスが使用されてもよい。
メモリ664は、情報をコンピューティングデバイス650内に格納する。メモリ664は、1つまたは複数のコンピュータ読取可能媒体、1つまたは複数の揮発性メモリユニット、もしくは、1つまたは複数の不揮発性メモリユニットの1つ以上として実現され得る。拡張メモリ674も設けられ、拡張インターフェイス672を介してデバイス650に接続されてもよく、拡張インターフェイス672は、たとえばSIMM(Single In Line Memory Module)カードインターフェイスを含んでいてもよい。そのような拡張メモリ674は、デバイス650に余分の格納スペースを提供してもよく、もしくは、デバイス650のためのアプリケーションまたは他の情報も格納してもよい。具体的には、拡張メモリ674は、上述のプロセスを実行または補足するための命令を含んでいてもよく、安全な情報も含んでいてもよい。このため、たとえば、拡張メモリ674はデバイス650のためのセキュリティモジュールとして設けられてもよく、デバイス650の安全な使用を許可する命令でプログラミングされてもよい。加えて、ハッキング不可能な態様でSIMMカード上に識別情報を乗せるといったように、安全なアプリケーションが追加情報とともにSIMMカードを介して提供されてもよい。
メモリはたとえば、以下に説明されるようなフラッシュメモリおよび/またはNVRAMメモリを含んでいてもよい。一実現化例では、コンピュータプログラム製品が情報担体において有形に具体化される。コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を行なう命令を含む。情報担体は、メモリ664、拡張メモリ674、またはプロセッサ652上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体であり、たとえばトランシーバ668または外部インターフェイス662を通して受信され得る。
デバイス650は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス666を介して無線通信してもよい。通信インターフェイス666は、とりわけ、GSM(登録商標)音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSといった、さまざまなモードまたはプロトコル下での通信を提供してもよい。そのような通信は、たとえば無線周波数トランシーバ668を介して生じてもよい。加えて、ブルートゥース、Wi−Fi、または他のそのようなトランシーバ(図示せず)などを使用して、短距離通信が生じてもよい。加えて、GPS(Global Positioning System:全地球測位システム)レシーバモジュール670が、追加のナビゲーション関連および位置関連無線データをデバイス650に提供してもよく、当該データは、デバイス650上で実行されるアプリケーションによって適宜使用されてもよい。
デバイス650はまた、ユーザから口頭情報を受信してそれを使用可能なデジタル情報に変換し得る音声コーデック660を使用して、音声通信してもよい。音声コーデック660はまた、たとえばデバイス650のハンドセットにおいて、スピーカを介すなどして、ユーザに聞こえる音を生成してもよい。そのような音は、音声電話からの音を含んでいてもよく、録音された音(たとえば、音声メッセージ、音楽ファイルなど)を含んでいてもよく、デバイス650上で動作するアプリケーションが生成する音も含んでいてもよい。
コンピューティングデバイス650は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、携帯電話680として実現されてもよい。それはまた、スマートフォン682、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
ここに説明されたシステムおよび手法のさまざまな実現化例は、デジタル電子回路、集積回路、特別に設計されたASIC(application specific integrated circuit:特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実現され得る。これらのさまざまな実現化例は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能な1つ以上のコンピュータプログラムにおける実現化例を含んでいてもよく、当該プロセッサは専用であっても汎用であってもよく、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信するとともに、これらにデータおよび命令を送信するように結合されてもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても公知)は、プログラマブルプロセッサのための機械命令を含んでおり、高レベル手続き型および/またはオブジェクト指向プログラミング言語で、および/またはアセンブリ/機械言語で実現され得る。ここに使用されるように、「機械読取可能媒体」「コンピュータ読取可能媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、装置および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device:PLD))を指し、機械命令を機械読取可能信号として受信する機械読取可能媒体を含む。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
ユーザとの対話を提供するために、ここに説明されたシステムおよび手法は、情報をユーザに表示するためのディスプレイデバイス(たとえば、CRT(cathode ray tube:陰極線管)またはLCD(liquid crystal display:液晶ディスプレイ)モニタ)と、ユーザが入力をコンピュータに提供できるようにするキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有するコンピュータ上で実現され得る。他の種類のデバイスを使用してユーザとの対話を提供することもでき、たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態で受信され得る。
ここに説明されたシステムおよび手法は、(たとえばデータサーバとしての)バックエンドコンポーネントを含む、またはミドルウェアコンポーネント(たとえばアプリケーションサーバ)を含む、またはフロントエンドコンポーネント(たとえば、ユーザがここに説明されたシステムおよび手法の実現化例と対話できるようにするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含む、もしくは、そのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネントの任意の組合せを含む、コンピューティングシステムにおいて実現され得る。システムのコンポーネントは、任意の形態または媒体のデジタルデータ通信(たとえば通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(local area network:LAN)、ワイドエリアネットワーク(wide area network:WAN)、およびインターネットを含む。
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは一般に互いにリモートであり、典型的には通信ネットワークを介して対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行されて互いにクライアント−サーバ関係を有するコンピュータプログラムによって生じる。
いくつかの実現化例では、図6に示すコンピューティングデバイスは、仮想現実(HMDデバイス690)とインターフェイス接続するセンサを含み得る。たとえば、図6に示すコンピューティングデバイス650または他のコンピューティングデバイス上に含まれる1つ以上のセンサは、HMDデバイス690への入力を提供でき、または一般に、VR環境への入力を提供できる。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体認証センサ、温度センサ、湿度センサ、および周囲光センサを含み得るものの、それらに限定されない。コンピューティングデバイス650はこれらのセンサを使用して、VR環境におけるコンピューティングデバイスの絶対位置および/または検出された回転を判断可能であり、それは次に、VR環境への入力として使用され得る。たとえば、コンピューティングデバイス650は、コントローラ、レーザポインタ、キーボード、武器などの仮想オブジェクトとしてVR環境に組込まれてもよい。VR環境に組込まれた場合のコンピューティングデバイス/仮想オブジェクトのユーザによる位置付けは、ユーザが、VR環境において仮想オブジェクトをある態様で見るようにコンピューティングデバイスを位置付けることを可能にし得る。たとえば、仮想オブジェクトがレーザポインタを表わす場合、ユーザは、コンピューティングデバイスを、実際のレーザポインタであるかのように操作することができる。ユーザはコンピューティングデバイスをたとえば左右に、上下に、円形に動かして、レーザポインタを使用するのと同様の態様でデバイスを使用することができる。
いくつかの実現化例では、コンピューティングデバイス650上に含まれ、またはコンピューティングデバイス650に接続された1つ以上の入力デバイスは、VR環境への入力として使用され得る。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイクロホン、入力機能性を有するイヤホンまたは小型イヤホン、ゲーミングコントローラ、または他の接続可能な入力デバイスを含み得るものの、それらに限定されない。コンピューティングデバイスがVR環境に組込まれた場合にコンピューティングデバイス650上に含まれる入力デバイスと対話するユーザは、特定のアクションがVR環境で生じるようにすることができる。
いくつかの実現化例では、コンピューティングデバイス650のタッチスクリーンは、VR環境においてタッチパッドとしてレンダリングされ得る。ユーザは、コンピューティングデバイス650のタッチスクリーンと対話することができる。対話は、たとえばHMDデバイス690において、VR環境におけるレンダリングされたタッチパッド上の動きとしてレンダリングされる。レンダリングされた動きは、VR環境においてオブジェクトを制御することができる。
いくつかの実現化例では、コンピューティングデバイス650上に含まれる1つ以上の出力デバイスは、VR環境においてHMDデバイス690のユーザに出力および/またはフィードバックを提供することができる。出力およびフィードバックは、視覚、触覚、または音声によるものであり得る。出力および/またはフィードバックは、振動、1つ以上の照明またはストロボをオンオフすることもしくは点滅および/または明滅させること、アラームを鳴らすこと、チャイムを鳴らすこと、歌を演奏すること、および音声ファイルを演奏することを含み得るものの、それらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含み得るものの、それらに限定されない。
いくつかの実現化例では、コンピューティングデバイス650は、コンピュータによって生成された3D環境において別のオブジェクトとして現われてもよい。ユーザによるコンピューティングデバイス650との対話(たとえば、タッチスクリーンを回転させ、振動させること、タッチスクリーンに触れること、タッチスクリーンを横切って指をスワイプすること)は、VR環境におけるオブジェクトとの対話として解釈され得る。VR環境におけるレーザポインタの例では、コンピューティングデバイス650は、コンピュータによって生成された3D環境において仮想レーザポインタとして現われる。ユーザがコンピューティングデバイス650を操作する際、ユーザはVR環境においてレーザポインタの動きを見る。ユーザは、コンピューティングデバイス650上またはHMDデバイス690上で、VR環境におけるコンピューティングデバイス650との対話からフィードバックを受信する。
いくつかの実現化例では、コンピューティングデバイス650はタッチスクリーンを含んでいてもよい。たとえば、ユーザは、タッチスクリーン上で起こることをVR環境において起こることで模倣できる特定の態様で、タッチスクリーンと対話することができる。たとえば、ユーザは、タッチスクリーンに表示されたコンテンツをズームするために、ピンチタイプの動きを使用してもよい。タッチスクリーン上でのこのピンチタイプの動きにより、VR環境において提供された情報はズームされ得る。
いくつかの実現化例では、コンピューティングデバイスに加えて1つ以上の入力デバイス(たとえばマウス、キーボード)が、コンピュータによって生成された3D環境においてレンダリングされ得る。レンダリングされた入力デバイス(たとえば、レンダリングされたマウス、レンダリングされたキーボード)は、VR環境においてオブジェクトを制御するために、VR環境においてレンダリングされたとして使用され得る。
コンピューティングデバイス600は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータといった、さまざまな形態のデジタルコンピュータを表わすよう意図されている。コンピューティングデバイス650は、携帯情報端末、携帯電話、スマートフォン、および他の同様のコンピューティングデバイスといった、さまざまな形態のモバイルデバイスを表わすよう意図されている。ここに示すコンポーネント、それらの接続および関係、ならびにそれらの機能は、単なる例示であるよう意図されており、本文書に記載のおよび/または請求項に記載の本発明の実現化例を限定するよう意図されてはいない。
以下の例において、さらなる実現化例を要約する。
例1:コンピュータにより実現される方法であって、当該方法は、仮想環境のために、複数の非接触ターゲットを生成するステップを含み、複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、当該方法はさらに、仮想環境において第1の非接触入力を検出するステップを含み、非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、当該方法はさらに、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、少なくとも1つの非接触ターゲットを当該位置で提供するステップと、当該位置で第2の非接触入力を検出するステップに応答して、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行するステップとを含む、方法。
例2:第1の非接触入力は、ユーザに関連付けられた減速速度を含み、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、例1に記載の方法。
例3:第1の非接触入力は、ユーザに関連付けられた加速速度を含み、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、例1に記載の方法。
例4:第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は頭部装着型デバイスで検出される、例1、2、または3に記載の方法。
例5:第1の非接触入力が予め規定されたしきい値を満たすかどうかを判断するステップは、複数の非接触ターゲットについてのトリガ情報を取得するステップを含み、トリガ情報は、対話型機能性を実行するための表示に対応しており、当該判断するステップはさらに、ユーザに関連付けられた意図を判断するステップと、仮想環境における初期位置とユーザについての運動速度とを判断するステップと、対話型機能性を実行するための信頼レベルを取得するために、意図および運動速度をトリガ情報と比較するステップとを含む、例1〜4のうちの1つに記載の方法。
例6:意図を判断するステップは、ユーザに関連付けられた運動の加速または減速を分析するステップを含む、例5に記載の方法。
例7:第2の非接触入力は、ユーザに関連付けられた眼球注視を含み、眼球注視は、対話型機能性をトリガするために固定される、例1〜6のうちの1つに記載の方法。
例8:眼球注視は、約50ミリ秒〜約100ミリ秒の固定後に対話型機能性をトリガする、例7に記載の方法。
例9:仮想オブジェクトに関連付けられた対話型機能性は、仮想オブジェクトに対応する非接触の選択可能メニューを含む、例1〜8のうちの1つに記載の方法。
例10:第2の非接触入力を検出するステップに応答して、複数の非接触制御機構を当該位置で提供するステップをさらに含む、例1〜9のうちの1つに記載の方法。
例11:システムであって、当該システムは、仮想現実環境において仮想現実体験を生成する電子コンピューティングデバイスを含み、電子コンピューティングデバイスは物理的空間内でポータブルであり、当該システムはさらに、電子コンピューティングデバイスと通信している複数のセンサを含み、センサは、物理的空間内の電子コンピューティングデバイスにアクセスしているユーザに関連付けられた動きを検出するように構成され、当該システムはさらに、プロセッサを含み、プロセッサは、ある期間にわたる各動きに関連付けられた速度と、動きを行なうユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離とを判断し、当該期間にわたる動きに関連付けられた加速速度を判断することに応答して、仮想環境のための第1の対話モードに関与し、当該期間にわたる動きに関連付けられた減速速度を判断することに応答して、仮想環境のための第2の対話モードに関与し、仮想現実環境において関与されたモードの表示を表示し、動きと少なくとも1つの仮想オブジェクトとに関連付けられた対話型機能性を実行するために関与されたモードを使用するように構成される、システム。
例12:仮想オブジェクトに関連付けられた対話型機能性は、仮想オブジェクトに対応する非接触の選択可能メニューを含む、例11に記載のシステム。
例13:第1の対話モードは、仮想環境において、少なくとも1つの仮想オブジェクト上の選択可能部分を表示することを含み、選択可能部分は、速度と、ユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離との検出後に提供される、例11または12に記載のシステム。
例14:第2の対話モードは、仮想環境において、少なくとも1つの仮想オブジェクト上の他の選択可能部分を表示することを含み、他の選択可能部分は、予め規定されたしきい値の後に、および、ユーザによって行なわれた追加運動の検出後に提供される、例11〜13のうちの1つに記載のシステム。
例15:動きは、少なくとも1つの仮想オブジェクトに向かう眼球運動に関連付けられ、眼球運動は、約50ミリ秒〜約100ミリ秒の固定後に対話型機能性をトリガする、例11〜14のうちの1つに記載のシステム。
例16:動きは、ユーザの眼球運動に関連付けられ、眼球運動は、少なくとも1つの仮想オブジェクトから離れる方に向けられる、例11〜15のうちの1つに記載のシステム。
例17:動きは、ユーザの手の運動に関連付けられ、手の運動は、少なくとも1つの仮想オブジェクトの方に向けられる、例11〜16のうちの1つに記載のシステム。
例18:命令を含む、非一時的なコンピュータ読取可能媒体であって、命令は、コンピュータシステムのプロセッサによって実行されると、コンピュータシステムに複数のステップを行なわせ、当該複数のステップは、仮想環境のために、複数の非接触ターゲットを生成するステップを含み、複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、当該複数のステップはさらに、仮想環境において第1の非接触入力を検出するステップを含み、非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、当該複数のステップはさらに、第1の非接触入力が、少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、第1の非接触入力が予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、少なくとも1つの非接触ターゲットを当該位置で提供するステップと、当該位置で第2の非接触入力を検出するステップに応答して、仮想環境において、少なくとも1つの非接触ターゲットに関連付けられた対話型機能性を実行するステップとを含む、非一時的なコンピュータ読取可能媒体。
例19:第1の非接触入力は、ユーザに関連付けられた減速速度を含み、第2の非接触入力は、頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、例18に記載の非一時的なコンピュータ読取可能媒体。
例20:第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は頭部装着型デバイスで検出される、例18または19に記載の非一時的なコンピュータ読取可能媒体。
多くの実施形態を説明してきた。しかしながら、明細書の精神および範囲から逸脱することなくさまざまな変更がなされ得ることが理解されるであろう。加えて、図面に示す論理フローは、所望の結果を達成するために、図示された特定の順序または順番を必要としない。加えて、説明されたフローに他のステップが提供されてもよく、または当該フローからステップが除去されてもよく、説明されたシステムに他のコンポーネントが追加されてもよく、または当該システムから除去されてもよい。したがって、他の実施形態は以下の請求項の範囲内にある。

Claims (20)

  1. コンピュータにより実現される方法であって、前記方法は、
    仮想環境のために、複数の非接触ターゲットを生成するステップを含み、前記複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、前記方法はさらに、
    前記仮想環境において第1の非接触入力を検出するステップを含み、前記非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、前記方法はさらに、
    前記第1の非接触入力が、前記少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、前記第1の非接触入力が前記予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、前記少なくとも1つの非接触ターゲットを前記位置で提供するステップと、
    前記位置で第2の非接触入力を検出するステップに応答して、前記仮想環境において、前記少なくとも1つの非接触ターゲットに関連付けられた前記対話型機能性を実行するステップとを含む、方法。
  2. 前記第1の非接触入力は、ユーザに関連付けられた減速速度を含み、前記第2の非接触入力は、前記頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、請求項1に記載の方法。
  3. 前記第1の非接触入力は、ユーザに関連付けられた加速速度を含み、前記第2の非接触入力は、前記頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、請求項1に記載の方法。
  4. 前記第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、前記ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は前記頭部装着型デバイスで検出される、請求項1に記載の方法。
  5. 前記第1の非接触入力が前記予め規定されたしきい値を満たすかどうかを判断するステップは、
    前記複数の非接触ターゲットについてのトリガ情報を取得するステップを含み、前記トリガ情報は、対話型機能性を実行するための表示に対応しており、前記判断するステップはさらに、
    ユーザに関連付けられた意図を判断するステップと、
    前記仮想環境における初期位置と、前記ユーザについての運動速度とを判断するステップと、
    前記対話型機能性を実行するための信頼レベルを取得するために、前記意図および前記運動速度を前記トリガ情報と比較するステップとを含む、請求項1に記載の方法。
  6. 前記意図を判断するステップは、前記ユーザに関連付けられた運動の加速または減速を分析するステップを含む、請求項5に記載の方法。
  7. 前記第2の非接触入力は、ユーザに関連付けられた眼球注視を含み、前記眼球注視は、前記対話型機能性をトリガするために固定される、請求項1に記載の方法。
  8. 前記眼球注視は、約50ミリ秒〜約100ミリ秒の固定後に前記対話型機能性をトリガする、請求項7に記載の方法。
  9. 前記仮想オブジェクトに関連付けられた前記対話型機能性は、前記仮想オブジェクトに対応する非接触の選択可能メニューを含む、請求項1に記載の方法。
  10. 前記第2の非接触入力を検出するステップに応答して、複数の非接触制御機構を前記位置で提供するステップをさらに含む、請求項1に記載の方法。
  11. システムであって、
    仮想現実環境において仮想現実体験を生成する電子コンピューティングデバイスを含み、前記電子コンピューティングデバイスは物理的空間内でポータブルであり、前記システムはさらに、
    前記電子コンピューティングデバイスと通信している複数のセンサを含み、前記センサは、前記物理的空間内の前記電子コンピューティングデバイスにアクセスしているユーザに関連付けられた動きを検出するように構成され、前記システムはさらに、
    プロセッサを含み、前記プロセッサは、
    ある期間にわたる各動きに関連付けられた速度と、前記動きを行なう前記ユーザの一部分から少なくとも1つの仮想オブジェクトまでの距離とを判断し、
    前記期間にわたる前記動きに関連付けられた加速速度を判断することに応答して、前記仮想環境のための第1の対話モードに関与し、
    前記期間にわたる前記動きに関連付けられた減速速度を判断することに応答して、前記仮想環境のための第2の対話モードに関与し、
    前記仮想現実環境において前記関与されたモードの表示を表示し、前記動きと前記少なくとも1つの仮想オブジェクトとに関連付けられた対話型機能性を実行するために前記関与されたモードを使用するように構成される、システム。
  12. 前記仮想オブジェクトに関連付けられた前記対話型機能性は、前記仮想オブジェクトに対応する非接触の選択可能メニューを含む、請求項11に記載のシステム。
  13. 前記第1の対話モードは、前記仮想環境において、前記少なくとも1つの仮想オブジェクト上の選択可能部分を表示することを含み、前記選択可能部分は、前記速度と、前記ユーザの前記一部分から前記少なくとも1つの仮想オブジェクトまでの前記距離との検出後に提供される、請求項11に記載のシステム。
  14. 前記第2の対話モードは、前記仮想環境において、前記少なくとも1つの仮想オブジェクト上の他の選択可能部分を表示することを含み、前記他の選択可能部分は、予め規定されたしきい値の後に、および、前記ユーザによって行なわれた追加運動の検出後に提供される、請求項11に記載のシステム。
  15. 前記動きは、前記少なくとも1つの仮想オブジェクトに向かう眼球運動に関連付けられ、前記眼球運動は、約50ミリ秒〜約100ミリ秒の固定後に前記対話型機能性をトリガする、請求項11に記載のシステム。
  16. 前記動きは、前記ユーザの眼球運動に関連付けられ、前記眼球運動は、前記少なくとも1つの仮想オブジェクトから離れる方に向けられる、請求項11に記載のシステム。
  17. 前記動きは、前記ユーザの手の運動に関連付けられ、前記手の運動は、前記少なくとも1つの仮想オブジェクトの方に向けられる、請求項11に記載のシステム。
  18. 命令を含む、非一時的なコンピュータ読取可能媒体であって、前記命令は、コンピュータシステムのプロセッサによって実行されると、前記コンピュータシステムに複数のステップを行なわせ、前記複数のステップは、
    仮想環境のために、複数の非接触ターゲットを生成するステップを含み、前記複数の非接触ターゲットは各々、仮想オブジェクトに関連付けられた対話型機能性を含み、前記複数のステップはさらに、
    前記仮想環境において第1の非接触入力を検出するステップを含み、前記非接触入力は、少なくとも1つの非接触ターゲットに関連付けられた位置に対応しており、前記複数のステップはさらに、
    前記第1の非接触入力が、前記少なくとも1つの非接触ターゲットに関連付けられた予め規定されたしきい値を満たすかどうかを判断し、前記第1の非接触入力が前記予め規定されたしきい値を満たすと判断すると、頭部装着型ディスプレイにおける表示のために、前記少なくとも1つの非接触ターゲットを前記位置で提供するステップと、
    前記位置で第2の非接触入力を検出するステップに応答して、前記仮想環境において、前記少なくとも1つの非接触ターゲットに関連付けられた前記対話型機能性を実行するステップとを含む、非一時的なコンピュータ読取可能媒体。
  19. 前記第1の非接触入力は、ユーザに関連付けられた減速速度を含み、前記第2の非接触入力は、前記頭部装着型ディスプレイにアクセスしているユーザに関連付けられた眼球注視を含む、請求項18に記載の非一時的なコンピュータ読取可能媒体。
  20. 前記第2の非接触入力を検出するステップは、ユーザの眼の複数の画像を分析することによって、前記ユーザに関連付けられた眼球注視方向を検出するステップを含み、眼球注視は前記頭部装着型デバイスで検出される、請求項18に記載の非一時的なコンピュータ読取可能媒体。
JP2017556678A 2015-08-04 2016-08-04 仮想現実における注視対話のためのホバー挙動 Pending JP2018526693A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562200821P 2015-08-04 2015-08-04
US62/200,821 2015-08-04
PCT/US2016/045518 WO2017024118A1 (en) 2015-08-04 2016-08-04 Hover behavior for gaze interactions in virtual reality

Publications (1)

Publication Number Publication Date
JP2018526693A true JP2018526693A (ja) 2018-09-13

Family

ID=56684293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556678A Pending JP2018526693A (ja) 2015-08-04 2016-08-04 仮想現実における注視対話のためのホバー挙動

Country Status (6)

Country Link
US (1) US20170038837A1 (ja)
EP (1) EP3332311B1 (ja)
JP (1) JP2018526693A (ja)
KR (1) KR20170130582A (ja)
CN (1) CN107787472A (ja)
WO (1) WO2017024118A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023099570A (ja) * 2018-12-27 2023-07-13 株式会社コロプラ プログラム、およびシステム
WO2024166851A1 (ja) * 2023-02-07 2024-08-15 株式会社Nttドコモ 仮想空間管理装置

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102110208B1 (ko) * 2015-05-08 2020-05-13 엘지전자 주식회사 안경형 단말기 및 이의 제어방법
JP6516585B2 (ja) * 2015-06-24 2019-05-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置、その方法及びプログラム
US20170085964A1 (en) * 2015-09-17 2017-03-23 Lens Entertainment PTY. LTD. Interactive Object Placement in Virtual Reality Videos
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
KR20170051013A (ko) * 2015-11-02 2017-05-11 엘지전자 주식회사 테더링 형 hmd 및 그 hmd의 제어 방법
WO2017161192A1 (en) * 2016-03-16 2017-09-21 Nils Forsblom Immersive virtual experience using a mobile communication device
US10133345B2 (en) * 2016-03-22 2018-11-20 Microsoft Technology Licensing, Llc Virtual-reality navigation
US10048751B2 (en) * 2016-03-31 2018-08-14 Verizon Patent And Licensing Inc. Methods and systems for gaze-based control of virtual reality media content
JP6851745B2 (ja) * 2016-08-04 2021-03-31 富士通株式会社 画像制御方法、装置、及びプログラム
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
GB2557594B (en) * 2016-12-09 2020-01-01 Sony Interactive Entertainment Inc Image processing system and method
US10482648B2 (en) * 2016-12-13 2019-11-19 Qualcomm Incorporated Scene-based foveated rendering of graphics content
US10120442B2 (en) * 2016-12-21 2018-11-06 Oculus Vr, Llc Eye tracking using a light field camera on a head-mounted display
GB2558284B (en) * 2016-12-23 2021-12-08 Sony Interactive Entertainment Inc Virtual reality
EP3588494B1 (en) * 2017-02-27 2024-04-03 Sony Group Corporation Information processing device, information processing method, and program
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
JP6947661B2 (ja) * 2017-05-26 2021-10-13 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
SE541650C2 (en) * 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
CN107247424B (zh) * 2017-06-08 2019-03-29 浙江大学 一种基于激光距离传感器的ar虚拟开关的开关方法
US11079899B2 (en) * 2017-07-26 2021-08-03 Microsoft Technology Licensing, Llc Dynamic eye-gaze dwell times
WO2019023014A1 (en) 2017-07-27 2019-01-31 Intuitive Surgical Operations, Inc. ASSOCIATION METHODS AND ASSOCIATED SYSTEMS FOR MANIPULATORS
CN110475523B (zh) * 2017-07-27 2023-06-27 直观外科手术操作公司 用于操纵器的关联过程和相关系统
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
US10930075B2 (en) * 2017-10-16 2021-02-23 Microsoft Technology Licensing, Llc User interface discovery and interaction for three-dimensional virtual environments
CN111492426B (zh) * 2017-12-22 2024-02-02 瑞典爱立信有限公司 注视启动的语音控制
KR102044856B1 (ko) * 2017-12-28 2019-11-14 광운대학교 산학협력단 가상현실 기반으로 오토마타를 조립하고 시뮬레이션하는 장치 및 방법
JP6582205B2 (ja) * 2018-02-28 2019-10-02 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
JP6623481B2 (ja) * 2018-03-23 2019-12-25 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
US10748021B2 (en) 2018-05-11 2020-08-18 Samsung Electronics Co., Ltd. Method of analyzing objects in images recorded by a camera of a head mounted device
US20210318796A1 (en) * 2018-08-17 2021-10-14 Matrix Analytics Corporation System and Method for Fabricating Decorative Surfaces
CN110908568B (zh) * 2018-09-18 2022-11-04 网易(杭州)网络有限公司 一种虚拟对象的控制方法和装置
JP7148624B2 (ja) * 2018-09-21 2022-10-05 富士フイルム株式会社 画像提案装置、画像提案方法及び画像提案プログラム
CN109346014B (zh) * 2018-09-29 2020-07-03 歌尔科技有限公司 一种虚拟现实设备及其屏幕控制方法
KR102239877B1 (ko) * 2018-12-19 2021-04-12 주식회사 에이투젯 3차원 vr 콘텐츠 제작 시스템
US11320957B2 (en) 2019-01-11 2022-05-03 Microsoft Technology Licensing, Llc Near interaction mode for far virtual object
US10930244B2 (en) * 2019-02-19 2021-02-23 Apical Limited Data processing systems
US11009698B2 (en) * 2019-03-13 2021-05-18 Nick Cherukuri Gaze-based user interface for augmented and mixed reality device
US11314383B2 (en) * 2019-03-24 2022-04-26 Apple Inc. Stacked media elements with selective parallax effects
CN110248091B (zh) * 2019-06-12 2021-06-04 Oppo广东移动通信有限公司 焦距调整方法及相关产品
US11516296B2 (en) * 2019-06-18 2022-11-29 THE CALANY Holding S.ÀR.L Location-based application stream activation
CN115004128A (zh) 2020-01-27 2022-09-02 奇跃公司 基于注视计时器的用户输入设备的功能增强
US11695758B2 (en) * 2020-02-24 2023-07-04 International Business Machines Corporation Second factor authentication of electronic devices
AU2021349382B2 (en) 2020-09-25 2023-06-29 Apple Inc. Methods for adjusting and/or controlling immersion associated with user interfaces
US11609629B2 (en) 2020-10-20 2023-03-21 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11392198B2 (en) 2020-10-20 2022-07-19 ROVl GUIDES, INC. Methods and systems of extended reality environment interaction based on eye motions
US11320903B1 (en) 2020-10-20 2022-05-03 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11747896B2 (en) * 2020-10-20 2023-09-05 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11281291B1 (en) 2020-10-20 2022-03-22 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
CN112612363A (zh) * 2020-12-18 2021-04-06 上海影创信息科技有限公司 基于余光区域的用户非偏好比较方法和系统
CN112684883A (zh) * 2020-12-18 2021-04-20 上海影创信息科技有限公司 多用户对象区分处理的方法和系统
US11327630B1 (en) 2021-02-04 2022-05-10 Huawei Technologies Co., Ltd. Devices, methods, systems, and media for selecting virtual objects for extended reality interaction
US11995230B2 (en) * 2021-02-11 2024-05-28 Apple Inc. Methods for presenting and sharing content in an environment
WO2022221851A1 (en) * 2021-04-13 2022-10-20 Apple Inc. Methods for providing an immersive experience in an environment
CN113384233A (zh) * 2021-06-25 2021-09-14 长沙学院 一种利用vr眼镜快速检测近视的系统
US11986739B2 (en) * 2021-07-09 2024-05-21 Gel Blaster, Inc. Smart target co-witnessing hit attribution system and method
US11921918B2 (en) * 2021-11-16 2024-03-05 Sony Interactive Entertainment LLC Heads up display in virtual reality
US12008160B2 (en) * 2022-03-30 2024-06-11 Apple Inc. Eye tracking based selection of a user interface (UI) element based on targeting criteria
US20240103716A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Methods for interacting with user interfaces based on attention

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
WO2014204755A1 (en) * 2013-06-18 2014-12-24 Microsoft Corporation Multi-step virtual object selection
WO2014209772A1 (en) * 2013-06-25 2014-12-31 Microsoft Corporation Selecting user interface elements via position signal

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2126142A1 (en) * 1994-06-17 1995-12-18 David Alexander Kahn Visual communications apparatus
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US8181122B2 (en) * 2007-07-30 2012-05-15 Perceptive Pixel Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
EP2659335A4 (en) * 2010-12-29 2016-05-18 Thomson Licensing SYSTEM AND METHOD FOR RECOGNIZING GESTURES
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
US9135508B2 (en) * 2011-12-20 2015-09-15 Microsoft Technology Licensing, Llc. Enhanced user eye gaze estimation
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
CN105339866B (zh) * 2013-03-01 2018-09-07 托比股份公司 延迟扭曲凝视交互
US9367136B2 (en) * 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US9230368B2 (en) * 2013-05-23 2016-01-05 Microsoft Technology Licensing, Llc Hologram anchoring and dynamic positioning
EP3140780B1 (en) * 2014-05-09 2020-11-04 Google LLC Systems and methods for discerning eye signals and continuous biometric identification
US10248192B2 (en) * 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
CN106200964B (zh) * 2016-07-06 2018-10-26 浙江大学 一种虚拟现实中基于移动轨迹识别进行人机交互的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
WO2014204755A1 (en) * 2013-06-18 2014-12-24 Microsoft Corporation Multi-step virtual object selection
WO2014209772A1 (en) * 2013-06-25 2014-12-31 Microsoft Corporation Selecting user interface elements via position signal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023099570A (ja) * 2018-12-27 2023-07-13 株式会社コロプラ プログラム、およびシステム
JP7466034B2 (ja) 2018-12-27 2024-04-11 株式会社コロプラ プログラム、およびシステム
WO2024166851A1 (ja) * 2023-02-07 2024-08-15 株式会社Nttドコモ 仮想空間管理装置

Also Published As

Publication number Publication date
CN107787472A (zh) 2018-03-09
EP3332311B1 (en) 2019-12-04
KR20170130582A (ko) 2017-11-28
US20170038837A1 (en) 2017-02-09
WO2017024118A1 (en) 2017-02-09
EP3332311A1 (en) 2018-06-13

Similar Documents

Publication Publication Date Title
EP3332311B1 (en) Hover behavior for gaze interactions in virtual reality
EP3332314B1 (en) Input via context sensitive collisions of hands with objects in virtual reality
JP6633256B1 (ja) 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成
US10545584B2 (en) Virtual/augmented reality input device
US11181986B2 (en) Context-sensitive hand interaction
US10509487B2 (en) Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
CN107533374B (zh) 虚拟现实中的头部、手势和触摸输入的动态切换和合并
KR102338835B1 (ko) 증강 및/또는 가상 현실 환경에서의 세션 종료 검출
US20170287215A1 (en) Pass-through camera user interface elements for virtual reality
US11941764B2 (en) Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
CN108697935B (zh) 虚拟环境中的化身
EP3740849B1 (en) Hybrid placement of objects in an augmented reality environment
KR20190133080A (ko) 증강 현실 시스템용 터치프리 인터페이스
KR20190067227A (ko) 가상 현실 시스템을 위한 입력 제어기 안정화 기법
US11782571B2 (en) Device, method, and graphical user interface for manipulating 3D objects on a 2D screen
US10474324B2 (en) Uninterruptable overlay on a display
WO2019010337A1 (en) VOLUMETRIC MULTI-SELECTION INTERFACE FOR SELECTING MULTIPLE ENTITIES IN A 3D SPACE
CN116940915A (zh) 虚拟现实中的部分透视
WO2023283154A1 (en) Artificial reality teleportation via hand gestures
WO2024173045A1 (en) Simultaneous controller and touch interactions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191203