JP7008681B2 - 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ - Google Patents
仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ Download PDFInfo
- Publication number
- JP7008681B2 JP7008681B2 JP2019218129A JP2019218129A JP7008681B2 JP 7008681 B2 JP7008681 B2 JP 7008681B2 JP 2019218129 A JP2019218129 A JP 2019218129A JP 2019218129 A JP2019218129 A JP 2019218129A JP 7008681 B2 JP7008681 B2 JP 7008681B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- virtual
- touch
- user
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 58
- 230000004044 response Effects 0.000 claims description 37
- 230000009471 action Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 6
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 description 46
- 230000015654 memory Effects 0.000 description 40
- 238000004891 communication Methods 0.000 description 26
- 210000003128 head Anatomy 0.000 description 21
- 238000004590 computer program Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000012913 prioritisation Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
- H04L67/306—User profiles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Description
本出願は、2015年8月26日に出願された「仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ(DYNAMIC SWITCHING AND MERGING OF HEAD, GESTURE AND TOUCH INPUT IN VIRTUAL REALITY)」と題される米国非仮特許出
願第14/836,311号の優先権を主張し、その継続出願であり、その開示全体をここに引用により援用する。
この文書は、一般的に、没入型仮想現実システムにおける入力の処理に関する。
仮想現実(VR)システムは、3次元(3D)の没入型環境を生成することができる。ユーザは、例えば、表示装置を見るときに通して見るディスプレイ、眼鏡またはゴーグルを含むヘルメットまたは他の頭部装着型装置、センサとフィットされる手袋、センサを含む外部ハンドヘルドデバイス、および他のそのような電子デバイスなどの様々な電子デバイスとの相互作用を通じてこの仮想3D没入環境を体験することができる。一旦仮想3D環境に没入すると、ユーザの3D環境との相互作用は、仮想3D環境と相互に作用し、それを個人的なものにし、制御するよう、目での注視、頭部での注視、物理的な移動および/または電子デバイスの操作など、様々な形態をとり得る。
1つの局面において、方法は、複数の入力モードに応答して各々が選択可能かつ操作可能である複数の仮想オブジェクトを含む没入型仮想体験を開始することと、複数の入力モードのうちの第1の入力モードを実施する第1の入力を受信することと、第1の入力に応答して複数の仮想オブジェクトのうちの第1の仮想オブジェクトを選択することと、複数の入力モードのうちの第2の入力モードを実施する第2の入力を受信することと、第2の入力モードの優先順位値と第1の入力モードの優先順位値とを比較することと、比較に基づいて、第2の入力に応答して、第1の仮想オブジェクトの選択を解放し、選択を複数の仮想オブジェクトのうちの第2の仮想オブジェクトにシフトするか、または第1の仮想オブジェクトの選択を維持することとを含んでもよい。
例えばHMD(頭部装着型ディスプレイ)デバイスを装着した、3D仮想環境に没入し
たユーザは、3D仮想環境を探索し、様々な異なるタイプの入力を介して3D仮想環境と相互に作用することができる。これらの入力は、例えば、手/腕のジェスチャ、頭部の動き、および/または頭部の方向による注視、目の方向による注視など、および/またはHMDの操作、および/またはHMDとは別個の電子デバイスの操作、例えば、電子デバイスのタッチセンシティブ面上に加えられるタッチ、電子デバイスの移動、電子デバイスによって放射される光線またはビームなどを含む物理的相互作用を含み得る。例えば、いくつかの実現例では、HMDは、例えば、スマートフォンまたは他のそのようなハンドヘルド電子デバイスのようなハンドヘルド電子デバイスと対にされてもよい。HMDと対にされるハンドヘルド電子デバイスのユーザ操作により、ユーザは、HMDによって生成される3D仮想没入体験と相互に作用してもよい。いくつかのシステムは、ユーザの目での注視を検出および追跡し、ならびに/またはユーザの頭部の方向による注視を検出して、検出された目のおよび/または頭部での注視を3D仮想没入体験における対応する相互作用に変換するように構成されてもよい。これらの複数の異なる入力モード、特に複数の同時入力に直面した際に、複数の入力を実行するための設定された優先順位のシーケンスまたは階層は、検出された入力および設定された優先順位のシーケンスまたは階層に基づいて仮想世界で取られるべきオブジェクトおよび/またはアクションの正確な選択を容易にすることができる。
し追跡することができ、仮想世界でオブジェクトに向けられたユーザの注視は、そのオブジェクトの選択に対応してもよい。いくつかの実施形態では、ハンドヘルド電子デバイス102のタッチ面上の次のドラッグおよび/またはハンドヘルド電子デバイス102自体の移動、および/または頭部の動き、および/または手/腕の動きは、例えば、目での注視によって選択されたオブジェクトの移動などの、後のアクションを検出してもよい。いくつかの実施形態では、オブジェクトの初期選択を含むユーザ入力は、頭部の動き、手/腕のジェスチャ、ハンドヘルド電子機器102の移動などから検出されてもよい。これらの複数の入力モードが可能にされる実現例では、複数の入力を例えば同時に受信される場合に実行するための設定された優先順位のシーケンスまたは階層は、検出された入力および設定された優先順位のシーケンスまたは階層に基づいて仮想世界で取られるべきオブジェクトおよび/またはアクションの正確な選択を容易にすることができる。
デバイス300は、例えば、図1および図2Aおよび図2Bに関して上述したHMDであってもよく、没入型の仮想没入型体験を生成し、第2のユーザ電子デバイス302は、例えば、HMDによって生成される仮想没入型体験とのユーザ相互作用を容易にするために、第1のユーザ電子デバイスと通信している、図1に関して上述したスマートフォンであってもよい。
面上のタッチおよび/またはハンドヘルド電子デバイス102の移動の追跡)、およびハンドヘルド電子デバイス102によって放射される光線またはビームを含む、4つの異なる入力機構の何らかの組合わせを利用する。これらの4つの異なる入力機構が与えられると、どのアクションがシステムのアクティブなフォーカスを保持するかを明確にするシステムによって、仮想世界における所望の相互作用への入力の正確な変換を容易にし得る。
の視野内において相対的近くの位置にあってもよい。例えば仮想世界においてHMD100のディスプレイ140に表示されるオブジェクトリスト、例えばオブジェクトX、Y、Zのリストの移動は、ユーザの視野内のオブジェクトの位置にかかわらず、一様なスクロールスケールを維持し、ハンドヘルド電子デバイス102のタッチセンシティブ面上のドラッグ入力と整合し得る。同様に、オブジェクトは、図5Cに示すように、ユーザの光軸または視線と整列されてもよく、またはオブジェクトは、ユーザの光軸または視線から、ある角度で、またはオフセットされて位置決めされてもよい。例えば仮想世界においてHMD100のディスプレイ140に表示されるオブジェクトリスト、例えばオブジェクトX、Y、Zのリストの移動は、ユーザの光軸または視線に対するオブジェクトの角度にかかわらず、一様なスクロールスケールを維持し、ハンドヘルド電子デバイス102のタッチセンシティブ面上のドラッグ入力と整合し得る。
ような方法でハンドヘルド電子デバイス102を移動させるかまたは向きを変更してもよく、次いで、図7Cに示すように、ハンドヘルド電子デバイス102のタッチセンシティブ面上のタッチを解放してもよい。このようにして、ユーザがフォーカスを確立し、ハンドヘルド電子デバイスのタッチセンシティブ面にタッチしてオブジェクトXにフォーカスを確立すると、ハンドヘルド電子デバイス102をオブジェクトXから十分離して角度付けることで、必ずしもタッチを解放する必要なく、フォーカスを解放し、および/または選択をキャンセルしてもよい。
動かすと、図10Bに示すように、例えばユーザの手またはハンドヘルド電子デバイス102の端部に最も近接したオブジェクト(この場合、オブジェクトX)が強調表示される。次いで、例えば、把持動作などのようなユーザの手による予め設定されたジェスチャ、またはハンドヘルド電子デバイス102のタッチセンシティブ面上のタッチで、最も近接した強調表示されるオブジェクト(この例ではオブジェクトX)を選択してもよく、一旦把持されると、オブジェクトは、図10Cに示すように、ユーザが手および/またはハンドヘルド電子デバイス102を動かすとともに、移動されてもよい。いくつかの実施形態では、選択されたオブジェクトは、ユーザの手またはハンドヘルド電子デバイス102の端部に対して固定された平行移動オフセットに留まってもよく、オブジェクトが選択されたままである間ユーザの手および/またはハンドヘルド電子デバイス102が移動するにつれてオブジェクトは移動する。ユーザの把持の解放、および/またはハンドヘルド電子デバイス102のタッチセンシティブ面上でのユーザのタッチの解放で、オブジェクトは、図10Dに示すように、解放された位置に配置変えされてもよい。いくつかの実施形態では、解放されたオブジェクトは、確立されたグリッドまたは近くのオブジェクトと整列されてもよい。
、制御することを可能にする。これらの仮想現実オブジェクトは、「物理的エンティティ」に対応しているため、仮想現実で表示されているが、それのためのアプローチは、単なるデータの表現だけではなく、実際に物理的エンティティの制御およびそれらとの相互作用にも関連し、それに向けられる。
力を容易にしてもよい。次いで、ユーザは、図12Eに示すように、オブジェクト20Aのリスト20からオブジェクト20Aを手に取って選択してもよく、図12Fに示されているように、ユーザは、オブジェクト20Aとの相互作用および/またはそれの操作をリーチ/タッチ入力で行なってもよい。いくつかの実施形態では、オブジェクトのリスト20のニアフィールドディスプレイは、それらが例えば仮想世界においてユーザから約1.5フィートまたは1.5フィート未満の距離にあるかのように見えてもよい。いくつかの実施形態では、オブジェクトのリスト20のニアフィールドディスプレイは、それらが、例えば、仮想世界においてユーザから約1.5フィートよりも大きな距離にあるかのように見えてもよい。
て、またはそのようなサーバのグループ内で複数回実現されてもよい。また、コンピューティングデバイス1400はラックサーバシステム1424の一部として実現されてもよい。さらに、コンピューティングデバイス1400はラップトップコンピュータ1422などのパーソナルコンピュータにおいて実現されてもよい。あるいは、コンピューティングデバイス1400からのコンポーネントは、デバイス1450などのモバイルデバイス(図示せず)内の他のコンポーネントと組合されてもよい。そのようなデバイスの各々がコンピューティングデバイス1400,1450の1つ以上を含んでいてもよく、システム全体が、互いに通信する複数のコンピューティングデバイス1400,1450で構成されてもよい。
を置くといったように、セキュアなアプリケーションが付加的な情報とともにSIMMカードを介して提供されてもよい。
読取可能媒体」「コンピュータ読取可能媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために用いられる任意のコンピュータプログラムプロダクト、装置および/またはデバイス(例えば磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械命令を機械読取可能信号として受信する機械読取可能媒体を含む。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために用いられる任意の信号を指す。
デバイスのプロセッサ、クライアントデバイスのプロセッサ)にプロセスを実行させる命令を格納するように構成することができる。
わせにおいて実現されてもよい。コンポーネントは、例えば通信ネットワークといったデジタルデータ通信の任意の形態または媒体によって相互接続されてもよい。通信ネットワークの例は、ローカルエリアネットワーク(LAN)およびワイドエリアネットワーク(WAN)、例えばインターネットを含む。
例1:方法は、複数の入力モードに応答して各々が選択可能かつ操作可能である複数の仮想オブジェクトを含む没入型仮想体験を開始することと、複数の入力モードのうちの第1の入力モードを実施する第1の入力を受信することと、第1の入力に応答して複数の仮想オブジェクトのうちの第1の仮想オブジェクトを選択することと、複数の入力モードのうちの第2の入力モードを実施する第2の入力を受信することと、第2の入力モードの優先順位値と第1の入力モードの優先順位値とを比較することと、比較に基づいて、第2の入力に応答して、第1の仮想オブジェクトの選択を解放し、選択を複数の仮想オブジェクトのうちの第2の仮想オブジェクトにシフトするか、または第1の仮想オブジェクトの選択を維持することとを含む。
ァーフィールドディスプレイで注視入力を受信することを含み、第3の入力を受信することは、ジェスチャ入力を受信することと、ファーフィールドディスプレイからニアフィールドディスプレイへの複数の仮想オブジェクトの動的切り替えのためのトリガとしてジェスチャ入力を認識することと、複数の仮想オブジェクトのニアフィールド表示のために複数の仮想オブジェクトの外観をモーフィングすることと、モーフィングされた複数の仮想オブジェクトをニアフィールドディスプレイに表示することとを含む、例1~9の1つの方法。
の入力を受信することと、第3の入力に応答してモーフィングされた複数の仮想オブジェクトのうちの1つを選択することとを備える、例16の方法。
値とを比較し、比較に基づいて、第2の入力に応答して、第1の仮想オブジェクトの選択を解放し、選択を複数の仮想オブジェクトのうちの第2の仮想オブジェクトにシフトするか、または第1の仮想オブジェクトの選択を維持するよう構成される、例24に従う装置。
替えのトリガとなり、命令はさらに、複数の仮想オブジェクトのニアフィールド表示のために複数の仮想オブジェクトの外観をモーフィングし、モーフィングされた複数の仮想オブジェクトをニアフィールドディスプレイに表示するための命令を含む、例26、27、28または29のコンピュータ可読記憶媒体。
Claims (16)
- 複数の仮想オブジェクトを含む仮想体験を開始することを備え、前記複数の仮想オブジェクトの各々は、入力に応答して選択可能かつ操作可能であり、さらに、
複数の入力モードのうちの第1の入力モードのアクションが実施されたことに基づく第1の入力を受信すること、
前記第1の入力に応答して前記複数の仮想オブジェクトのうちの第1の仮想オブジェクトを選択し、前記仮想体験における操作のために選択された第1の仮想オブジェクトにアクティブフォーカスを設定することと、
前記複数の入力モードのうちの第2の入力モードのアクションが実施されたことに基づく第2の入力を受信することと、
前記第1の仮想オブジェクトに前記アクティブフォーカスが維持されている間に、前記第2の入力に応じて、前記第1の仮想オブジェクトの少なくとも1つの仮想エレメントを操作することと、
前記複数の入力モードのうちの第3の入力モードのアクションが実施されたことに基づく第3の入力を受信することと、
前記第3の入力モードの優先順位値と前記第1の入力モードの優先順位値とを比較することと、
前記比較に基づいて、前記第3の入力に応答して、前記第1の仮想オブジェクトへのアクティブフォーカスを解放し、アクティブフォーカスを前記複数の仮想オブジェクトのうちの第2の仮想オブジェクトにシフトするか、または前記第1の仮想オブジェクトへのアクティブフォーカスを維持することとを備え、
第1のアプローチでは、前記第1の入力の優先順位値は、仮想世界における前記第1の仮想オブジェクトと入力を受け付けるユーザとの距離によって決定され、前記第3の入力の優先順位値は、仮想世界における前記第2の仮想オブジェクトと入力を受け付けるユーザとの距離によって決定される、方法。 - 前記第3の入力に応答して、前記第1の仮想オブジェクトへのアクティブフォーカスを解放し、アクティブフォーカスを第2の仮想オブジェクトにシフトすることは、前記第3の入力の優先順位値が前記第1の入力の優先順位値よりも大きい場合に、前記第2の入力に応答して、前記第1の仮想オブジェクトへのアクティブフォーカスを解放し、アクティブフォーカスを第2の仮想オブジェクトにシフトすることを含む、請求項1に記載の方法。
- 前記第3の入力の優先順位値が前記第1の入力の優先順位値よりも小さい場合に、前記第1の仮想オブジェクトへのアクティブフォーカスを維持することをさらに備える、請求項1または2に記載の方法。
- 第2のアプローチでは、前記複数の入力モードの各々は、関連付けられる優先順位値を有し、前記複数の入力モードの各々に関連付けられるそれぞれの優先順位値は、予め設定されるかまたはユーザプロファイルに従って前記ユーザによって設定される、請求項1から3のいずれか1項に記載の方法。
- 前記複数の入力モードは、頭部での注視入力モード、目での注視入力モード、ポイント入力モード、リーチ入力モード、およびジェスチャ入力モードのうちの少なくとも2つを含む、請求項1から4のいずれか1項に記載の方法。
- 第1の入力を受信し、第1の仮想オブジェクトを選択することは、操作のために前記第1の仮想オブジェクトを選択するよう前記第1の仮想オブジェクトに向けられる注視入力を受信することを含む、請求項1から5のいずれか1項に記載の方法。
- 第3の入力を受信することは、
ハンドヘルド電子デバイスのタッチセンシティブ面上でタッチ入力を受信することと、
前記タッチ入力に応答して、前記選択された第1の仮想オブジェクトの1つ以上の仮想エレメントを移動させることとを含む、請求項6に記載の方法。 - 前記ハンドヘルド電子デバイスの前記タッチセンシティブ面上の前記タッチ入力はタッチおよびドラッグ入力であり、前記選択された第1の仮想オブジェクトの少なくとも1つの仮想エレメントの前記移動は、前記タッチセンシティブ面上の前記タッチおよびドラッグ入力の前記移動に対応する、請求項7に記載の方法。
- 前記第1の仮想オブジェクトを選択するよう前記第1の仮想オブジェクトに向けられる前記注視入力を受信することは、
前記第1の仮想オブジェクトを含む前記複数の仮想オブジェクトのファーフィールドディスプレイで注視入力を受信することを含み、
前記第2の入力を受信することは、
ジェスチャ入力を受信することと、
前記ファーフィールドディスプレイからニアフィールドディスプレイへの前記複数の仮想オブジェクトの動的切り替えのためのトリガとして前記ジェスチャ入力を認識することと、
前記複数の仮想オブジェクトのニアフィールドディスプレイのために前記複数の仮想オブジェクトの外観をモーフィングすることと、
前記モーフィングされた複数の仮想オブジェクトを前記ニアフィールドディスプレイに表示することとを含む、請求項6に記載の方法。 - 前記複数の仮想オブジェクトのニアフィールドディスプレイのために前記複数の仮想オブジェクトの前記外観をモーフィングすることは、前記複数の仮想オブジェクトが前記ファーフィールドディスプレイから前記ニアフィールドディスプレイに移動する際に、前記ユーザから前記複数の仮想オブジェクトへの仮想距離を減少させることと、前記複数の仮想オブジェクトのサイズを変更すること、前記複数の仮想オブジェクトに関連付けられる画像を変更すること、前記複数の仮想オブジェクトに関連付けられるテキストを変更すること、または前記複数の仮想オブジェクトに関連付けられるメニューアイテムを変更することのうちの少なくとも1つとを含む、請求項9に記載の方法。
- 第4の入力を受信することをさらに備え、前記第4の入力は、前記ニアフィールドディスプレイに表示される前記複数の仮想オブジェクトの仮想オブジェクトを選択し操作するためのリーチジェスチャを含む、請求項9または10に記載の方法。
- 前記第1の入力を受信し、前記第1の仮想オブジェクトを選択することは、操作のために前記第1の仮想オブジェクトを選択するよう前記第1の仮想オブジェクトに向けられるハンドヘルド電子デバイスによって生成されるビームを受信することを含む、請求項1から11のいずれか1項に記載の方法。
- 前記第2の入力を受信することは、
ハンドヘルド電子デバイスのタッチセンシティブ面上でタッチ入力を受信することと、
前記タッチ入力を前記タッチセンシティブ面に沿ってドラッグのタッチ入力を受信することと、
タッチおよびドラッグ入力に応答して、前記選択された第1の仮想オブジェクトの少なくとも1つの仮想エレメントを移動させることとを含み、前記選択された第1の仮想オブジェクトの前記少なくとも1つの仮想エレメントの移動は、前記ハンドヘルド電子デバイスの前記タッチセンシティブ面に沿ったドラッグ入力の移動に対応する、請求項12に記載の方法。 - 前記第2の入力は、
前記ハンドヘルド電子デバイスのタッチセンシティブ面上でタッチ入力を受信し、受信された前記タッチ入力に応じて、前記ビームを前記ハンドヘルド電子デバイスと前記選択された第1の仮想オブジェクトとに接続することと、
前記ハンドヘルド電子デバイスの物理的移動を検出することと、
前記ハンドヘルド電子デバイスの検出された物理的移動に応じて前記選択された第1の仮想空間オブジェクトの少なくとも1つの仮想エレメントを移動させることと、を含み、前記選択された第1の仮想オブジェクトの前記少なくとも1つの仮想エレメントの移動は前記ハンドヘルド電子デバイスの前記検出された物理的移動に対応し、
前記ハンドヘルド電子デバイスの前記タッチセンシティブ面からの前記タッチ入力の解放を検出することと、
前記選択された第1の仮想オブジェクトの前記少なくとも1つの仮想エレメントを前記タッチ入力の解放ポイントに再配置するよう、前記タッチ入力の解放の検出に応答して、前記選択された第1の仮想オブジェクトへの前記アクティブフォーカスを解放することとを含む、請求項12に記載の方法。 - 前記ユーザがデバイスを利用することにより実行されるアクションは、前記ユーザの注視のアクションよりも高い優先順位値を有する、請求項1~請求項14のいずれか1項に記載の方法。
- 請求項1~請求項15のいずれか1項に記載の方法をコンピュータに実行させる、プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/836,311 US10101803B2 (en) | 2015-08-26 | 2015-08-26 | Dynamic switching and merging of head, gesture and touch input in virtual reality |
US14/836,311 | 2015-08-26 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017555336A Division JP2018517967A (ja) | 2015-08-26 | 2016-06-28 | 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061169A JP2020061169A (ja) | 2020-04-16 |
JP7008681B2 true JP7008681B2 (ja) | 2022-01-25 |
Family
ID=56409218
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017555336A Pending JP2018517967A (ja) | 2015-08-26 | 2016-06-28 | 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ |
JP2019218129A Active JP7008681B2 (ja) | 2015-08-26 | 2019-12-02 | 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017555336A Pending JP2018517967A (ja) | 2015-08-26 | 2016-06-28 | 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ |
Country Status (6)
Country | Link |
---|---|
US (2) | US10101803B2 (ja) |
EP (1) | EP3341815B1 (ja) |
JP (2) | JP2018517967A (ja) |
KR (1) | KR102003493B1 (ja) |
CN (1) | CN107533374B (ja) |
WO (1) | WO2017034667A1 (ja) |
Families Citing this family (110)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130339859A1 (en) | 2012-06-15 | 2013-12-19 | Muzik LLC | Interactive networked headphones |
JP6308214B2 (ja) * | 2013-05-15 | 2018-04-11 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
US10514755B2 (en) * | 2015-05-08 | 2019-12-24 | Lg Electronics Inc. | Glasses-type terminal and control method therefor |
US10101803B2 (en) * | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
JP6174646B2 (ja) * | 2015-09-24 | 2017-08-02 | 株式会社コロプラ | 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム |
KR102641655B1 (ko) * | 2015-10-20 | 2024-02-27 | 매직 립, 인코포레이티드 | 3차원 공간에서 가상 객체들 선택 |
JP6597235B2 (ja) * | 2015-11-30 | 2019-10-30 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US10133407B2 (en) * | 2015-12-28 | 2018-11-20 | Seiko Epson Corporation | Display apparatus, display system, method for controlling display apparatus, and program |
US20170185261A1 (en) * | 2015-12-28 | 2017-06-29 | Htc Corporation | Virtual reality device, method for virtual reality |
US10908694B2 (en) * | 2016-02-01 | 2021-02-02 | Microsoft Technology Licensing, Llc | Object motion tracking with remote device |
US9983697B1 (en) * | 2016-05-18 | 2018-05-29 | Meta Company | System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors |
US10303323B2 (en) | 2016-05-18 | 2019-05-28 | Meta Company | System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface |
US10255658B2 (en) | 2016-08-09 | 2019-04-09 | Colopl, Inc. | Information processing method and program for executing the information processing method on computer |
RU2677566C1 (ru) * | 2016-08-30 | 2019-01-17 | Бейдзин Сяоми Мобайл Софтвэр Ко., Лтд. | Способ, устройство и электронное оборудование для управления виртуальной реальностью |
US10888773B2 (en) | 2016-10-11 | 2021-01-12 | Valve Corporation | Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof |
US11625898B2 (en) | 2016-10-11 | 2023-04-11 | Valve Corporation | Holding and releasing virtual objects |
US10307669B2 (en) | 2016-10-11 | 2019-06-04 | Valve Corporation | Electronic controller with finger sensing and an adjustable hand retainer |
US20180129274A1 (en) * | 2016-10-18 | 2018-05-10 | Colopl, Inc. | Information processing method and apparatus, and program for executing the information processing method on computer |
JP6653489B2 (ja) * | 2016-12-16 | 2020-02-26 | パナソニックIpマネジメント株式会社 | 入力装置、及び、入力方法 |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US10393312B2 (en) | 2016-12-23 | 2019-08-27 | Realwear, Inc. | Articulating components for a head-mounted display |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US10437070B2 (en) | 2016-12-23 | 2019-10-08 | Realwear, Inc. | Interchangeable optics for a head-mounted display |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
CA3059234A1 (en) | 2017-04-19 | 2018-10-25 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
US10168789B1 (en) | 2017-05-31 | 2019-01-01 | Meta Company | Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations |
US10817128B2 (en) * | 2017-07-11 | 2020-10-27 | Logitech Europe S.A. | Input device for VR/AR applications |
US10782793B2 (en) * | 2017-08-10 | 2020-09-22 | Google Llc | Context-sensitive hand interaction |
CN111052042B (zh) | 2017-09-29 | 2022-06-07 | 苹果公司 | 基于注视的用户交互 |
US10930075B2 (en) * | 2017-10-16 | 2021-02-23 | Microsoft Technology Licensing, Llc | User interface discovery and interaction for three-dimensional virtual environments |
KR102138412B1 (ko) * | 2017-10-20 | 2020-07-28 | 한국과학기술원 | 증강현실 및 가상현실 내 투영기하를 사용한 3d 윈도우 관리 기법 |
KR102029906B1 (ko) | 2017-11-10 | 2019-11-08 | 전자부품연구원 | 이동수단의 가상현실 콘텐츠 제공 장치 및 방법 |
US11282133B2 (en) | 2017-11-21 | 2022-03-22 | International Business Machines Corporation | Augmented reality product comparison |
US10565761B2 (en) * | 2017-12-07 | 2020-02-18 | Wayfair Llc | Augmented reality z-stack prioritization |
US20190253700A1 (en) * | 2018-02-15 | 2019-08-15 | Tobii Ab | Systems and methods for calibrating image sensors in wearable apparatuses |
US11488602B2 (en) | 2018-02-20 | 2022-11-01 | Dropbox, Inc. | Meeting transcription using custom lexicons based on document history |
US10467335B2 (en) | 2018-02-20 | 2019-11-05 | Dropbox, Inc. | Automated outline generation of captured meeting audio in a collaborative document context |
WO2019172678A1 (en) * | 2018-03-07 | 2019-09-12 | Samsung Electronics Co., Ltd. | System and method for augmented reality interaction |
US11145096B2 (en) * | 2018-03-07 | 2021-10-12 | Samsung Electronics Co., Ltd. | System and method for augmented reality interaction |
US10831265B2 (en) * | 2018-04-20 | 2020-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for gaze-informed target manipulation |
WO2019204161A1 (en) | 2018-04-20 | 2019-10-24 | Pcms Holdings, Inc. | Method and system for gaze-based control of mixed reality content |
CN112041788B (zh) | 2018-05-09 | 2024-05-03 | 苹果公司 | 使用眼睛注视来选择文本输入字段 |
EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM |
US20190361521A1 (en) * | 2018-05-22 | 2019-11-28 | Microsoft Technology Licensing, Llc | Accelerated gaze-supported manual cursor control |
EP3807746B1 (en) * | 2018-06-20 | 2023-07-26 | Valve Corporation | Holding and releasing virtual objects |
CN112512648A (zh) * | 2018-06-20 | 2021-03-16 | 威尔乌集团 | 握住和释放虚拟对象 |
US10665206B2 (en) | 2018-07-30 | 2020-05-26 | Honeywell International Inc. | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance |
US10692299B2 (en) * | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
US10909772B2 (en) | 2018-07-31 | 2021-02-02 | Splunk Inc. | Precise scaling of virtual objects in an extended reality environment |
JP2021182174A (ja) * | 2018-08-07 | 2021-11-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN109101110A (zh) * | 2018-08-10 | 2018-12-28 | 北京七鑫易维信息技术有限公司 | 一种操作指令执行方法、装置、用户终端及存储介质 |
CN111124236B (zh) | 2018-10-30 | 2023-04-28 | 斑马智行网络(香港)有限公司 | 一种数据处理方法、装置和机器可读介质 |
CN111309142A (zh) | 2018-12-11 | 2020-06-19 | 托比股份公司 | 用于切换显示设备的输入模态的方法和设备 |
US11320911B2 (en) * | 2019-01-11 | 2022-05-03 | Microsoft Technology Licensing, Llc | Hand motion and orientation-aware buttons and grabbable objects in mixed reality |
KR20200091988A (ko) | 2019-01-23 | 2020-08-03 | 삼성전자주식회사 | 장치를 제어하기 위한 방법 및 그 전자 장치 |
US11853533B1 (en) * | 2019-01-31 | 2023-12-26 | Splunk Inc. | Data visualization workspace in an extended reality environment |
US11644940B1 (en) | 2019-01-31 | 2023-05-09 | Splunk Inc. | Data visualization in an extended reality environment |
AU2019428009A1 (en) * | 2019-02-04 | 2021-09-02 | Razer (Asia-Pacific) Pte. Ltd. | Method and apparatus of using a computer touchpad or digitizer stylus pad as a mousepad |
JP7291878B2 (ja) * | 2019-05-17 | 2023-06-16 | 株式会社電通 | 表示制御方法、表示制御装置、表示制御プログラムおよび表示制御システム |
US11297366B2 (en) | 2019-05-22 | 2022-04-05 | Google Llc | Methods, systems, and media for object grouping and manipulation in immersive environments |
US11689379B2 (en) * | 2019-06-24 | 2023-06-27 | Dropbox, Inc. | Generating customized meeting insights based on user interactions and meeting media |
US11151794B1 (en) * | 2019-06-28 | 2021-10-19 | Snap Inc. | Messaging system with augmented reality messages |
CN110308794A (zh) * | 2019-07-04 | 2019-10-08 | 郑州大学 | 具有两种显示模式的虚拟现实头盔及显示模式的控制方法 |
CN110502120A (zh) * | 2019-08-29 | 2019-11-26 | 广州创幻数码科技有限公司 | 动捕数据和预设动作数据结合的虚拟主播系统及实现方 |
US11189099B2 (en) * | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11176745B2 (en) * | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US11086406B1 (en) | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
KR20210063928A (ko) * | 2019-11-25 | 2021-06-02 | 삼성전자주식회사 | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
JP7433860B2 (ja) * | 2019-11-26 | 2024-02-20 | キヤノン株式会社 | 電子機器及び電子機器の制御方法 |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
EP3851939A1 (en) * | 2020-01-14 | 2021-07-21 | Apple Inc. | Positioning a user-controlled spatial selector based on extremity tracking information and eye tracking information |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11481177B2 (en) | 2020-06-30 | 2022-10-25 | Snap Inc. | Eyewear including multi-user, shared interactive experiences |
US11954268B2 (en) * | 2020-06-30 | 2024-04-09 | Snap Inc. | Augmented reality eyewear 3D painting |
CN111773658B (zh) * | 2020-07-03 | 2024-02-23 | 珠海金山数字网络科技有限公司 | 一种基于计算机视觉库的游戏交互方法及装置 |
CN111598273B (zh) * | 2020-07-20 | 2020-10-20 | 中国人民解放军国防科技大学 | 一种基于vr技术的环控生保系统维修性检测方法及装置 |
US11249314B1 (en) * | 2020-08-04 | 2022-02-15 | Htc Corporation | Method for switching input devices, head-mounted display and computer readable storage medium |
US11467403B2 (en) * | 2020-08-20 | 2022-10-11 | Htc Corporation | Operating method and electronic system |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US20220148268A1 (en) * | 2020-11-10 | 2022-05-12 | Noderix Teknoloji Sanayi Ticaret Anonim Sirketi | Systems and methods for personalized and interactive extended reality experiences |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
CN116438503A (zh) * | 2020-12-17 | 2023-07-14 | 三星电子株式会社 | 电子装置和电子装置的操作方法 |
CN112631424A (zh) * | 2020-12-18 | 2021-04-09 | 上海影创信息科技有限公司 | 手势优先级控制方法和系统及其vr眼镜 |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US11327630B1 (en) * | 2021-02-04 | 2022-05-10 | Huawei Technologies Co., Ltd. | Devices, methods, systems, and media for selecting virtual objects for extended reality interaction |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
KR20220136776A (ko) * | 2021-04-01 | 2022-10-11 | 삼성전자주식회사 | 증강 현실 이미지를 제공하는 방법 및 이를 지원하는 hmd 장치 |
US11278810B1 (en) * | 2021-04-01 | 2022-03-22 | Sony Interactive Entertainment Inc. | Menu placement dictated by user ability and modes of feedback |
US11927756B2 (en) | 2021-04-01 | 2024-03-12 | Samsung Electronics Co., Ltd. | Method for providing augmented reality image and head mounted display device supporting the same |
JP2022163813A (ja) * | 2021-04-15 | 2022-10-27 | キヤノン株式会社 | 装着型の情報端末、その制御方法及びプログラム |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
DE102021003490A1 (de) | 2021-07-06 | 2023-01-12 | Mercedes-Benz Group AG | Verfahren zur Darstellung von Informationen mit einer Blickfeldanzeigevorrichtung, Blickfeldanzeigevorrichtung und Fahrzeug |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
RU210426U1 (ru) * | 2021-12-15 | 2022-04-15 | Общество с ограниченной ответственностью "ДАР" | Устройство для трансляции дополненной реальности |
US20230334808A1 (en) * | 2022-01-12 | 2023-10-19 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
US11620000B1 (en) * | 2022-03-31 | 2023-04-04 | Microsoft Technology Licensing, Llc | Controlled invocation of a precision input mode |
US11531448B1 (en) * | 2022-06-01 | 2022-12-20 | VR-EDU, Inc. | Hand control interfaces and methods in virtual reality environments |
JP2024048680A (ja) * | 2022-09-28 | 2024-04-09 | キヤノン株式会社 | 制御装置、制御方法、プログラム |
US11947862B1 (en) | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200125A (ja) | 1998-12-30 | 2000-07-18 | Fuji Xerox Co Ltd | インタフェ―ス |
US20130088419A1 (en) | 2011-10-07 | 2013-04-11 | Taehyeong KIM | Device and control method thereof |
WO2013118373A1 (ja) | 2012-02-10 | 2013-08-15 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US20140168261A1 (en) | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
WO2014197229A1 (en) | 2013-06-07 | 2014-12-11 | Sony Computer Entertainment America Llc | Systems and methods for reducing hops associated with a head mounted system |
US20140368537A1 (en) | 2013-06-18 | 2014-12-18 | Tom G. Salter | Shared and private holographic objects |
US20150002676A1 (en) | 2013-07-01 | 2015-01-01 | Lg Electronics Inc. | Smart glass |
JP2015133088A (ja) | 2014-01-16 | 2015-07-23 | カシオ計算機株式会社 | Guiシステム、表示処理装置、入力処理装置及びプログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08241163A (ja) * | 1995-03-01 | 1996-09-17 | Canon Inc | 情報処理装置 |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
WO2000008547A1 (en) | 1998-08-05 | 2000-02-17 | British Telecommunications Public Limited Company | Multimodal user interface |
US6243093B1 (en) * | 1998-09-14 | 2001-06-05 | Microsoft Corporation | Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and which visually groups matching objects |
US6611253B1 (en) | 2000-09-19 | 2003-08-26 | Harel Cohen | Virtual input environment |
US7095401B2 (en) | 2000-11-02 | 2006-08-22 | Siemens Corporate Research, Inc. | System and method for gesture interface |
US7646394B1 (en) | 2004-03-05 | 2010-01-12 | Hrl Laboratories, Llc | System and method for operating in a virtual environment |
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US20100241955A1 (en) * | 2009-03-23 | 2010-09-23 | Microsoft Corporation | Organization and manipulation of content items on a touch-sensitive display |
US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
JP5472056B2 (ja) * | 2010-11-19 | 2014-04-16 | コニカミノルタ株式会社 | 表示システム、表示処理装置、表示方法、および表示プログラム |
US20130154913A1 (en) | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US9104239B2 (en) * | 2011-03-09 | 2015-08-11 | Lg Electronics Inc. | Display device and method for controlling gesture functions using different depth ranges |
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及系统 |
US20130082928A1 (en) * | 2011-09-30 | 2013-04-04 | Seung Wook Kim | Keyboard-based multi-touch input system using a displayed representation of a users hand |
US8990682B1 (en) * | 2011-10-05 | 2015-03-24 | Google Inc. | Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display |
US9152376B2 (en) | 2011-12-01 | 2015-10-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
AU2013239179B2 (en) * | 2012-03-26 | 2015-08-20 | Apple Inc. | Enhanced virtual touchpad and touchscreen |
US9552673B2 (en) | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
US9791921B2 (en) * | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
KR20140112910A (ko) | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | 입력 제어 방법 및 이를 지원하는 전자 장치 |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
US9443354B2 (en) * | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
US20140362110A1 (en) | 2013-06-08 | 2014-12-11 | Sony Computer Entertainment Inc. | Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user |
KR20150024247A (ko) * | 2013-08-26 | 2015-03-06 | 삼성전자주식회사 | 터치 스크린 디바이스에서 다수의 입력기구를 이용하는 애플리케이션을 실행하는 방법 및 터치 스크린 디바이스 |
US9244539B2 (en) | 2014-01-07 | 2016-01-26 | Microsoft Technology Licensing, Llc | Target positioning with gaze tracking |
US9552060B2 (en) | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
JP2015149634A (ja) * | 2014-02-07 | 2015-08-20 | ソニー株式会社 | 画像表示装置および方法 |
US10101803B2 (en) * | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
-
2015
- 2015-08-26 US US14/836,311 patent/US10101803B2/en active Active
-
2016
- 2016-06-28 KR KR1020177031644A patent/KR102003493B1/ko active IP Right Grant
- 2016-06-28 EP EP16738324.9A patent/EP3341815B1/en active Active
- 2016-06-28 WO PCT/US2016/039806 patent/WO2017034667A1/en unknown
- 2016-06-28 CN CN201680025102.6A patent/CN107533374B/zh active Active
- 2016-06-28 JP JP2017555336A patent/JP2018517967A/ja active Pending
-
2018
- 2018-09-13 US US16/130,040 patent/US10606344B2/en active Active
-
2019
- 2019-12-02 JP JP2019218129A patent/JP7008681B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000200125A (ja) | 1998-12-30 | 2000-07-18 | Fuji Xerox Co Ltd | インタフェ―ス |
US20130088419A1 (en) | 2011-10-07 | 2013-04-11 | Taehyeong KIM | Device and control method thereof |
WO2013118373A1 (ja) | 2012-02-10 | 2013-08-15 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US20140168261A1 (en) | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
WO2014197229A1 (en) | 2013-06-07 | 2014-12-11 | Sony Computer Entertainment America Llc | Systems and methods for reducing hops associated with a head mounted system |
US20140368537A1 (en) | 2013-06-18 | 2014-12-18 | Tom G. Salter | Shared and private holographic objects |
US20150002676A1 (en) | 2013-07-01 | 2015-01-01 | Lg Electronics Inc. | Smart glass |
JP2015133088A (ja) | 2014-01-16 | 2015-07-23 | カシオ計算機株式会社 | Guiシステム、表示処理装置、入力処理装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10101803B2 (en) | 2018-10-16 |
US20190011979A1 (en) | 2019-01-10 |
WO2017034667A1 (en) | 2017-03-02 |
CN107533374B (zh) | 2020-12-01 |
JP2018517967A (ja) | 2018-07-05 |
CN107533374A (zh) | 2018-01-02 |
EP3341815A1 (en) | 2018-07-04 |
US20170060230A1 (en) | 2017-03-02 |
JP2020061169A (ja) | 2020-04-16 |
KR102003493B1 (ko) | 2019-07-24 |
US10606344B2 (en) | 2020-03-31 |
EP3341815B1 (en) | 2022-04-13 |
KR20170126508A (ko) | 2017-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7008681B2 (ja) | 仮想現実における、頭部、ジェスチャ、およびタッチ入力の動的な切り替えならびにマージ | |
JP6682623B2 (ja) | 拡張および/または仮想現実環境におけるテレポーテーション | |
US10509487B2 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
US20220121344A1 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
US10545584B2 (en) | Virtual/augmented reality input device | |
EP3414643B1 (en) | Laser pointer interactions and scaling in virtual reality | |
CN109906424B (zh) | 用于虚拟现实系统的输入控制器稳定技术 | |
JP2021524629A (ja) | ウェアラブルシステムのためのトランスモード入力融合 | |
US8643951B1 (en) | Graphical menu and interaction therewith through a viewing window | |
EP3414644B1 (en) | Control system for navigation in virtual reality environment | |
KR20170130582A (ko) | 가상현실에서 시선 인터렉션을 위한 호버 행동 | |
JP6778815B2 (ja) | 仮想現実におけるロケーショングローブ | |
US20230325003A1 (en) | Method of displaying selectable options |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7008681 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |