JP2021128795A - 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 - Google Patents
姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 Download PDFInfo
- Publication number
- JP2021128795A JP2021128795A JP2021083134A JP2021083134A JP2021128795A JP 2021128795 A JP2021128795 A JP 2021128795A JP 2021083134 A JP2021083134 A JP 2021083134A JP 2021083134 A JP2021083134 A JP 2021083134A JP 2021128795 A JP2021128795 A JP 2021128795A
- Authority
- JP
- Japan
- Prior art keywords
- user
- objects
- virtual object
- cone
- multiplier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title abstract description 26
- 230000033001 locomotion Effects 0.000 claims abstract description 173
- 238000000034 method Methods 0.000 claims description 159
- 230000008859 change Effects 0.000 claims description 27
- 230000001133 acceleration Effects 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 210000001508 eye Anatomy 0.000 description 99
- 230000036544 posture Effects 0.000 description 94
- 210000003128 head Anatomy 0.000 description 60
- 230000008569 process Effects 0.000 description 41
- 230000003287 optical effect Effects 0.000 description 33
- 230000000007 visual effect Effects 0.000 description 33
- 238000003384 imaging method Methods 0.000 description 31
- 238000004422 calculation algorithm Methods 0.000 description 26
- 210000001747 pupil Anatomy 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 210000000695 crystalline len Anatomy 0.000 description 19
- 238000012545 processing Methods 0.000 description 17
- 230000004308 accommodation Effects 0.000 description 15
- 230000009471 action Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 12
- 230000003190 augmentative effect Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 10
- 230000007423 decrease Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000003213 activating effect Effects 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 210000003811 finger Anatomy 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000035807 sensation Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000002350 accommodative effect Effects 0.000 description 2
- 238000004873 anchoring Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000003565 oculomotor Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000036410 touch Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【解決手段】ウェアラブルシステムは、仮想コンテンツを3次元空間内に提示するように構成される、ディスプレイシステムと、ユーザ入力を受信するように構成されるユーザ入力デバイスと、ユーザの姿勢を検出するように構成される1つまたはそれを上回るセンサとを備えることができる。ウェアラブルシステムは、コンテキスト情報に基づいて、ユーザの環境内のオブジェクトとの種々のユーザ相互作用をサポートすることができる。実施例として、ウェアラブルシステムは、コンテキスト情報に基づいて円錐投射の間、仮想円錐の開口のサイズを調節することができる(例えばユーザの姿勢に伴って)。別の実施例として、ウェアラブルシステムは、コンテキスト情報に基づいて、ユーザ入力デバイスの作動と関連付けられた仮想オブジェクトの移動の量を調節することができる。
【選択図】図12B
Description
本願は、米国仮出願第62/316,030号、出願日2016年3月31日、発明の名称“CONE CASTING WITH DYNAMICALLY UPDATED APERTURE”および第62/325,679号、出願日2016年4月21日、発明の名称“DYNAMIC MAPPING OF USER INPUT DEVICE”に対する35 U.S.C.§119(e)のもとでの優先権の利益を主張するものであり、これらの両方は、全体が参照により本明細書中に援用される。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルデバイスのためのオブジェクトと相互作用するためのシステムであって、前記システムは、
3次元(3D)ビューをユーザに提示し、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成される、ウェアラブルデバイスのディスプレイシステムであって、前記FORは、前記ディスプレイシステムを介して前記ユーザによって知覚可能な前記ユーザの周囲の環境の一部を含む、ウェアラブルデバイスのディスプレイシステムと、
前記ユーザの姿勢と関連付けられたデータを入手するように構成されるセンサと、
前記センサおよび前記ディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記センサによって入手されたデータに基づいて、前記ユーザの姿勢を判定することと、
前記FOR内のオブジェクトのグループ上への円錐投射を開始することであって、前記円錐投射は、少なくとも部分的に前記ユーザの姿勢に基づく方向に開口を伴う仮想円錐を投射することを含む、ことと、
前記ユーザの環境と関連付けられたコンテキスト情報を分析することと、
少なくとも部分的に前記コンテキスト情報に基づいて、前記仮想円錐の開口を更新することと、
前記円錐投射のための前記仮想円錐の視覚的表現をレンダリングすることと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目2)
前記コンテキスト情報は、前記ユーザの視野(FOV)内のオブジェクトのサブグループのタイプ、レイアウト、場所、サイズ、または密度のうちの少なくとも1つを備え、前記FOVは、前記ディスプレイシステムを介して前記ユーザによって所与の時間に知覚可能な前記FORの一部を含む、項目1に記載のシステム。
(項目3)
前記ユーザのFOV内の前記オブジェクトのサブグループの密度は、
前記オブジェクトのサブグループ内のオブジェクトの数を計算すること、
前記オブジェクトのサブグループによって被覆される前記FOVのパーセンテージを計算すること、または
前記オブジェクトのサブグループ内のオブジェクトに関する等高線マップを計算すること
のうちの少なくとも1つによって計算される、項目2に記載のシステム。
(項目4)
前記ハードウェアプロセッサはさらに、前記仮想円錐と前記FOR内のオブジェクトのグループの中の1つまたはそれを上回るオブジェクトとの間の衝突を検出するようにプログラムされ、前記衝突の検出に応答して、前記ハードウェアプロセッサはさらに、焦点インジケータを前記1つまたはそれを上回るオブジェクトに提示するようにプログラムされる、項目1−3のいずれか1項に記載のシステム。
(項目5)
前記ハードウェアプロセッサは、遮蔽曖昧性解消技法を前記仮想円錐と衝突する1つまたはそれを上回るオブジェクトに適用し、遮蔽されたオブジェクトを識別するようにプログラムされる、項目4に記載のシステム。
(項目6)
前記円錐は、中心光線を備え、前記開口は、前記中心光線を横断する、項目1−5のいずれか1項に記載のシステム。
(項目7)
前記仮想円錐は、近位端を備え、前記近位端は、前記ユーザの眼間の場所、ユーザの腕の一部上の場所、ユーザ入力デバイス上の場所、または前記ユーザの環境内の任意の他の場所のうちの少なくとも1つの場所にアンカリングされる、項目1−6のいずれか1項に記載のシステム。
(項目8)
前記ハードウェアプロセッサはさらに、ユーザ入力デバイスから、前記仮想円錐の深度を深度平面にアンカリングするインジケーションを受信するようにプログラムされ、円錐投射は、前記深度平面内の前記オブジェクトのグループ上に実施される、項目1−7のいずれか1項に記載のシステム。
(項目9)
ウェアラブルデバイスのためのオブジェクトと相互作用するための方法であって、前記方法は、3次元(3D)空間内の第1の位置においてユーザに表示される標的仮想オブジェクトの選択を受信することと、
前記標的仮想オブジェクトに関する移動のインジケーションを受信することと、
前記標的仮想オブジェクトと関連付けられたコンテキスト情報を分析することと、
少なくとも部分的に前記コンテキスト情報に基づいて、前記標的仮想オブジェクトの移動に適用されるための乗数を計算することと、
前記標的仮想オブジェクトに関する移動量を計算することであって、前記移動量は、少なくとも部分的に前記移動のインジケーションおよび前記乗数に基づく、ことと、
前記ユーザに、第2の位置において前記標的仮想オブジェクトを表示することであって、前記第2の位置は、少なくとも部分的に前記第1の位置および前記移動量に基づく、ことと
を含む、方法。
(項目10)
前記コンテキスト情報は、前記ユーザから前記標的仮想オブジェクトまでの距離を含む、項目9に記載の方法。
(項目11)
前記乗数は、前記距離の増加に伴って比例して増加する、項目10に記載の方法。
(項目12)
前記移動は、位置変化、速度、または加速のうちの1つまたはそれを上回るものを含む、項目9−11のいずれか1項に記載の方法。
(項目13)
前記移動のインジケーションは、前記ウェアラブルデバイスと関連付けられたユーザ入力デバイスの作動または前記ユーザの姿勢の変化のうちの少なくとも1つを含む、項目9−12のいずれか1項に記載の方法。
(項目14)
前記姿勢は、頭部姿勢、眼姿勢、または身体姿勢のうちの1つまたはそれを上回るものを含む、項目13に記載の方法。
(項目15)
ウェアラブルデバイスのためのオブジェクトと相互作用するためのシステムであって、前記システムは、
3次元(3D)ビューをユーザに提示するように構成される、ウェアラブルデバイスのディスプレイシステムであって、前記3Dビューは、標的仮想オブジェクトを備える、ウェアラブルデバイスのディスプレイシステムと、
前記ディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記標的仮想オブジェクトに関する移動のインジケーションを受信することと、
前記標的仮想オブジェクトと関連付けられたコンテキスト情報を分析することと、
少なくとも部分的に前記コンテキスト情報に基づいて、前記標的仮想オブジェクトの移動に適用されるための乗数を計算することと、
前記標的仮想オブジェクトに関する移動量を計算することであって、前記移動量は、少なくとも部分的に前記移動のインジケーションおよび前記乗数に基づく、ことと、
前記ディスプレイシステムによって、第2の位置において前記標的仮想オブジェクトを表示すことであって、前記第2の位置は、少なくとも部分的に、前記第1の位置および前記移動量に基づく、ことと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目16)
前記標的仮想オブジェクトの移動のインジケーションは、前記ウェアラブルデバイスのユーザの姿勢の変化または前記ウェアラブルデバイスと関連付けられたユーザ入力デバイスから受信された入力を含む、項目15に記載のシステム。
(項目17)
前記コンテキスト情報は、前記ユーザから前記標的仮想オブジェクトまでの距離を含む、項目15−16のいずれか1項に記載のシステム。
(項目18)
前記乗数は、前記距離が閾値距離未満であるとき、1に等しく、前記閾値距離は、前記ユーザの手が届く範囲と等しい、項目17に記載のシステム。
(項目19)
前記乗数は、前記距離の増加に伴って比例して増加する、項目17−18のいずれか1項に記載のシステム。
(項目20)
前記移動は、位置変化、速度、または加速のうちの1つまたはそれを上回るものを含む、項目15−19のいずれか1項に記載のシステム。
ウェアラブルシステムは、仮想コンテンツをAR/VR/MR環境内に表示するように構成されることができる。ウェアラブルシステムは、ユーザが、ユーザの環境内の物理的または仮想オブジェクトと相互作用することを可能にすることができる。ユーザは、例えば、オブジェクトを選択および移動させることによって、姿勢を使用することによって、またはユーザ入力デバイスを作動させることによって、オブジェクトと相互作用することができる。例えば、ユーザは、ユーザ入力デバイスをある距離にわたって移動させてもよく、仮想オブジェクトは、ユーザ入力デバイスに追従し、同一距離量だけ移動するであろう。同様に、ウェアラブルシステムは、円錐投射を使用して、ユーザが、仮想オブジェクトを姿勢に伴って選択または標的化することを可能にしてもよい。ユーザがその手を移動させるにつれて、ウェアラブルシステムは、それに従って、異なる仮想オブジェクトをユーザの視野内で標的化および選択することができる。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムは、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイスを含むことができる。ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができる。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、ウェアラブルシステム200のいくつかの部分をより詳細に概略的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
ことができる。
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つまたはそれを上回る触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力および/またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
ウェアラブルシステムは、コンテキスト情報に基づいて、FOR内のオブジェクトとの種々のユーザ相互作用をサポートすることができる。例えば、ウェアラブルシステムは、ユーザが円錐投射を使用してオブジェクトと相互作用することに伴って、円錐投射の開口のサイズを調節することができる。別の実施例として、ウェアラブルシステムは、コンテキスト情報に基づいて、ユーザ入力デバイスの作動と関連付けられた仮想オブジェクトの移動量を調節することができる。これらの相互作用の詳細な実施例は、以下に提供される。
ユーザのFORは、ウェアラブルシステムを介して、ユーザによって知覚され得る、オブジェクトのグループを含有することができる。ユーザのFOR1200内のオブジェクトは、仮想および/または物理的オブジェクトであってもよい。仮想オブジェクトは、例えば、削除されたファイルのためのゴミ箱、コマンドを入力するための端末、ファイルまたはディレクトリにアクセスするためのファイルマネージャ、アイコン、メニュー、オーディオまたはビデオストリーミングのためのアプリケーション、オペレーティングシステムからの通知等のオペレーティングシステムオブジェクトを含んでもよい。仮想オブジェクトはまた、例えば、アバタ、ゲーム内の仮想オブジェクト、グラフィックまたは画像等、アプリケーション内のオブジェクトを含んでもよい。いくつかの仮想オブジェクトは、オペレーティングシステムオブジェクトおよびアプリケーション内のオブジェクトの両方であることができる。いくつかの実施形態では、ウェアラブルシステムは、仮想要素を既存の物理的オブジェクトに追加することができる。例えば、ウェアラブルシステムは、部屋内のテレビと関連付けられた仮想メニューを追加してもよく、仮想メニューは、ユーザに、ウェアラブルシステムを使用して、テレビをオンにする、またはチャンネルを変更するためのオプションを与えてもよい。
本明細書に説明されるように、ユーザは、姿勢を使用して、その環境内のオブジェクトと相互作用することができる。例えば、ユーザが、部屋を見渡すと、テーブル、椅子、壁、および壁のうちの1つ上の仮想テレビディスプレイが見え得る。ユーザが見ているオブジェクトを判定するために、ウェアラブルシステムは、円錐投射技法を使用してもよく、これは、概して説明すると、不可視の円錐をユーザが見ている方向に投影し、円錐と交差する任意のオブジェクトを識別するものである。円錐投射は、(ウェアラブルシステムの)HMDから物理的または仮想オブジェクトに向かって、側方厚さを有していない、単一光線を投射することを伴い得る。単一光線を伴う円錐投射はまた、光線投射とも称され得る。
ウェアラブルシステムは、ユーザ1210が、例えば、マウスをクリックする、タッチパッドをタップする、タッチスクリーンをスワイプする、容量ボタンに手をかざす、またはタッチする、キーボードまたはゲームコントローラ(例えば、5方向d−パッド)上のキーを押下する、ジョイスティック、ワンド、またはトーテムをオブジェクトに向かって向ける、遠隔制御上のボタンを押下する、またはユーザ入力デバイス等との他の相互作用によって、ユーザ入力デバイス466を作動させると、円錐投射を開始することができる。
円錐1220は、例えば、サイズ、形状、または色等の種々の性質を有してもよい。これらの性質は、円錐がユーザに知覚可能であるように、ユーザに表示されてもよい。ある場合には、円錐1220の一部が、表示されてもよい(例えば、円錐の端部、円錐の表面、円錐の中心光線等)。他の実施形態では、円錐1220は、直方体、多面体、角錐、円錐台等であってもよい。円錐の遠位端1228bは、任意の断面、例えば、円形、卵形、多角形、または不規則形を有することができる。
円錐投射は、ユーザの環境内のオブジェクトと相互作用するとき、特に、それらのオブジェクトが、ユーザからの少量の移動が光線の大移動に変換され得る距離に位置するとき、精度を増加させるために使用されることができる。円錐投射はまた、円錐を1つまたはそれを上回る仮想オブジェクトに重複させるために、ユーザからの必要な移動量を減少させるためにも使用され得る。いくつかの実装では、ユーザは、例えば、多くのオブジェクトが存在するとき、より狭い円錐を使用し、より少ないオブジェクトが存在するとき、より広い円錐を使用することによって、円錐の開口を手動で更新し、標的オブジェクトを選択する速度および精度を改良することができる。他の実装では、ウェアラブルシステムは、手動更新に加えて、または代替として、ユーザの環境内のオブジェクトと関連付けられたコンテキスト係数を判定し、自動円錐更新を可能にすることができ、これは、ユーザ入力が殆ど必要とされないため、有利には、ユーザが環境内のオブジェクトと相互作用することをより容易にすることができる。
図12Bおよび12Cを参照して説明されるように、円錐の開口は、ユーザのFOR内のオブジェクトの密度に基づいて、円錐投射の間、動的に更新されることができる。図12D、12E、12F、12Gは、オブジェクトの密度に基づいて、開口を動的に調節する実施例を説明する。図12Dは、ユーザのFOR1208内のオブジェクトの密度と関連付けられた等高線マップを図示する。仮想オブジェクト1271は、小テクスチャ化ドットによって表される。仮想オブジェクトの密度は、所与の領域内の等高線線の量によって反映される。例えば、等高線は、領域1272内で相互に近接し、領域1272内のオブジェクトの密度が高いことを表す。別の実施例として、領域1278内の等高線線は、比較的に疎らである。故に、領域1278内のオブジェクトの密度は、低い。
ウェアラブルシステムは、1つまたはそれを上回るオブジェクトが、円錐投射の間、円錐と衝突するかどうかを判定することができる。ウェアラブルシステムは、衝突検出エージェントを使用して、衝突を検出してもよい。例えば、衝突検出エージェントは、円錐の表面と交差するオブジェクトを識別し、および/または円錐の内側にあるオブジェクトを識別することができる。ウェアラブルシステムは、円錐の体積および場所およびオブジェクトの場所情報(図9を参照して説明される世界マップ内に記憶されるように)に基づいて、そのような識別を行うことができる。ユーザの環境内のオブジェクトは、メッシュ(世界メッシュとも称される)と関連付けられてもよい。衝突検出エージェントは、円錐に関する部分がオブジェクトのメッシュと重複するかどうかを判定し、衝突を検出することができる。ある実装では、ウェアラブルシステムは、円錐とある深度平面上のオブジェクトとの間の衝突のみを検出するように構成されてもよい。
図13は、動的に調節可能な開口を伴う円錐投射を使用してオブジェクトを選択するための例示的プロセスのフローチャートである。本プロセス1300は、ウェアラブルシステム(図2および4に示される)によって実施されることができる。
円錐投射の間、円錐の開口を調節することに加え、またはその代替として、コンテキスト情報もまた、ユーザ入力デバイスまたはユーザの身体の一部(例えば、ユーザの姿勢の変化)と関連付けられた移動を、例えば、仮想オブジェクトを移動させる等のユーザインターフェース動作に変換するために使用されることができる。
。
上記に説明されるように、ウェアラブルシステムは、ユーザ入力デバイスの移動を標的仮想オブジェクトの移動にマッピングするための乗数を計算することができる。乗数は、例えば、ユーザと標的仮想オブジェクトとの間の距離等のコンテキスト情報に基づいて計算されてもよい。例えば、図16に示されるように、乗数は、ユーザ1210の頭部の位置と仮想オブジェクト1640の位置との間の距離を使用して計算されてもよい。
方程式(2)では、正規化された距離は、無次元であって、オブジェクトが入力デバイスの距離にある場合、1と等しい。前述のように、乗数は、手が届く範囲内(例えば、カメラから入力デバイス間での距離内)のオブジェクトに関して1に設定されてもよい。故に、方程式(2)は、ウェアラブルシステムが、ユーザが入力デバイスを保持する場所に基づいて、手の長さ距離を動的に調節することを可能にする。例示的冪乗則乗数は、以下となり得る。
式中、累乗pは、例えば、1(線形)、2(二次)、または任意の他の整数または実数である。
乗数はまた、ユーザの物理的および/または仮想環境についてのコンテキスト情報等の他の係数を使用して計算されることができる。例えば、仮想オブジェクトが、オブジェクトの高密度クラスタ内に位置する場合、ウェアラブルシステムは、より小さい乗数を使用して、オブジェクトを設置する精度を増加させてもよい。コンテキスト情報はまた、仮想オブジェクトの性質を含んでもよい。例えば、ドライビングゲームでは、ウェアラブルシステムは、優れた車には大きい乗数を、平凡な車には小さい乗数を提供してもよい。
図16および17を参照して説明されるように、ウェアラブルシステムは、ユーザ入力デバイスの移動を仮想オブジェクトの移動にマッピングするための乗数を適用することができる。移動は、速度、加速、または位置変化(回転、1つの場所から他の場所への移動等)を含んでもよい。例えば、ウェアラブルシステムは、仮想オブジェクトがより離れて位置するとき、仮想オブジェクトをより高速で移動させるように構成されてもよい。
図18は、ユーザ入力デバイスの移動に応答して、仮想オブジェクトを移動させるための例示的プロセスのフローチャートを図示する。プロセス1800は、図2および4に示されるウェアラブルシステムによって実施されることができる。
第1の側面では、3次元(3D)空間内に位置する仮想オブジェクトを選択するための方法であって、前記方法は、コンピュータハードウェアを備える拡張現実(AR)システムの制御下で行われ、ARシステムは、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成され、FORは、ARシステムを介してユーザによって知覚可能なユーザの周囲の環境の一部を備え、ユーザのFOR内のオブジェクトのグループを判定することと、ユーザの姿勢を判定することと、オブジェクトのグループ上への円錐投射を開始することであって、円錐投射は、少なくとも部分的にユーザの姿勢に基づく方向に開口を伴う仮想円錐を投射することを含む、ことと、オブジェクトのグループ内のオブジェクトのサブグループと関連付けられたコンテキスト情報を分析することと、少なくとも部分的にコンテキスト情報に基づいて、円錐投射イベントに関する開口を更新することと、円錐投射の視覚的表現をレンダリングすることとを含む、方法。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (12)
- ウェアラブルデバイスのためのオブジェクトと相互作用するための方法であって、前記方法は、ディスプレイシステムとハードウェアプロセッサとを備えるウェアラブルデバイスの制御下で、
3次元(3D)空間内の第1の位置においてユーザに表示される標的仮想オブジェクトの選択を受信することと、
前記第1の位置から前記標的仮想オブジェクトを移動させるためのインジケーションを受信することであって、前記インジケーションは、前記3D空間内の第1の方向への前記ユーザに関連付けられた第1の移動量を含む、ことと、
前記第1の方向と異なる第2の方向における前記標的仮想オブジェクトと前記ユーザとの間の距離を分析することと、
前記ユーザに関連付けられた前記第1の移動量を前記標的仮想オブジェクトに関する第2の移動量にマッピングするための乗数を計算することであって、前記乗数は、前記第2の方向における前記標的仮想オブジェクトと前記ユーザとの間の距離に少なくとも部分的に基づいて計算される、ことと、
前記標的仮想オブジェクトに関する前記第1の方向における前記第2の移動量を計算することであって、前記第2の移動量は、前記第1の移動量と前記乗数とに少なくとも部分的に基づいて計算される、ことと、
第2の位置において前記標的仮想オブジェクトが前記ユーザに表示されるようにすることであって、前記第2の位置は、前記第1の位置と前記第2の移動量とに少なくとも部分的に基づく、ことと
を含む、方法。 - 前記乗数は、前記標的仮想オブジェクトと前記ユーザとの間の距離が前記ユーザの手の届く範囲を超える場合、1より大きい、請求項1に記載の方法。
- 前記乗数は、前記標的仮想オブジェクトと前記ユーザとの間の距離の増加に伴って比例して増加する、請求項1に記載の方法。
- 前記乗数は、前記第2の移動量を計算するために、位置変化、速度、または、加速のうちの1つまたは複数に適用される、請求項1に記載の方法。
- 前記標的仮想オブジェクトを移動させるためのインジケーションは、前記ウェアラブルデバイスに関連付けられたユーザ入力デバイスの作動または前記ユーザの姿勢の変化のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記姿勢は、頭部姿勢、眼姿勢、または、身体姿勢のうちの1つまたは複数を含む、請求項5に記載の方法。
- ウェアラブルデバイスのためのオブジェクトと相互作用するためのシステムであって、前記システムは、
3次元(3D)ビューをユーザに提示するように構成されているウェアラブルデバイスのディスプレイシステムであって、前記3Dビューは、標的仮想オブジェクトを示す、ウェアラブルデバイスのディスプレイシステムと、
前記ディスプレイシステムと通信するハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記標的仮想オブジェクトを第1の位置から移動させるためのインジケーションを受信することであって、前記インジケーションは、3D空間内の標的方向へのユーザに関連付けられた第1の移動量を含む、ことと、
前記標的仮想オブジェクトと前記ユーザとの間の距離を分析することと、
前記ユーザに関連付けられた前記第1の移動量を前記標的仮想オブジェクトに関する第2の移動量にマッピングするための乗数を計算することであって、前記乗数は、前記標的仮想オブジェクトと前記ユーザとの間の距離に少なくとも部分的に基づいて計算される、ことと、
前記標的仮想オブジェクトに関する前記標的方向への第2の移動量を計算することであって、前記第2の移動量は、前記第1の移動量と前記乗数とに少なくとも部分的に基づいて計算される、ことと、
第2の位置において前記標的仮想オブジェクトを表示することを前記ディスプレイシステムに行わせることであって、前記第2の位置は、前記第1の位置と前記第2の移動量とに少なくとも部分的に基づく、ことと
を行うようにプログラムされている、システム。 - 前記標的仮想オブジェクトを移動させるためのインジケーションは、前記ウェアラブルデバイスのユーザの姿勢の変化または前記ウェアラブルデバイスに関連付けられたユーザ入力デバイスから受信された入力を含む、請求項7に記載のシステム。
- 前記乗数は、前記標的仮想オブジェクトと前記ユーザとの間の距離が前記ユーザの手の届く範囲を超える場合、1より大きい、請求項7に記載のシステム。
- 前記乗数は、前記距離が閾値距離未満であるとき、1に等しく、前記閾値距離は、前記ユーザの手が届く範囲と等しい、請求項7に記載のシステム。
- 前記乗数は、前記標的仮想オブジェクトと前記ユーザとの間の距離の増加に伴って比例して増加する、請求項7に記載のシステム。
- 前記乗数は、前記第2の移動量を計算するために、位置変化、速度、または、加速のうちの1つまたは複数に適用される、請求項7に記載のシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022128859A JP7186913B2 (ja) | 2016-03-31 | 2022-08-12 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
JP2023001014A JP7549681B2 (ja) | 2016-03-31 | 2023-01-06 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662316030P | 2016-03-31 | 2016-03-31 | |
US62/316,030 | 2016-03-31 | ||
US201662325679P | 2016-04-21 | 2016-04-21 | |
US62/325,679 | 2016-04-21 | ||
JP2018550396A JP6904973B2 (ja) | 2016-03-31 | 2017-03-29 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018550396A Division JP6904973B2 (ja) | 2016-03-31 | 2017-03-29 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022128859A Division JP7186913B2 (ja) | 2016-03-31 | 2022-08-12 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
JP2023001014A Division JP7549681B2 (ja) | 2016-03-31 | 2023-01-06 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021128795A true JP2021128795A (ja) | 2021-09-02 |
JP7209041B2 JP7209041B2 (ja) | 2023-01-19 |
Family
ID=59961806
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018550396A Active JP6904973B2 (ja) | 2016-03-31 | 2017-03-29 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
JP2021083134A Active JP7209041B2 (ja) | 2016-03-31 | 2021-05-17 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
JP2022128859A Active JP7186913B2 (ja) | 2016-03-31 | 2022-08-12 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
JP2023001014A Active JP7549681B2 (ja) | 2016-03-31 | 2023-01-06 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018550396A Active JP6904973B2 (ja) | 2016-03-31 | 2017-03-29 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022128859A Active JP7186913B2 (ja) | 2016-03-31 | 2022-08-12 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
JP2023001014A Active JP7549681B2 (ja) | 2016-03-31 | 2023-01-06 | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Country Status (10)
Country | Link |
---|---|
US (8) | US10078919B2 (ja) |
EP (2) | EP3436863B1 (ja) |
JP (4) | JP6904973B2 (ja) |
KR (3) | KR20230098927A (ja) |
CN (2) | CN114995594A (ja) |
AU (2) | AU2017244109B2 (ja) |
CA (1) | CA3018758A1 (ja) |
IL (3) | IL303608A (ja) |
NZ (1) | NZ746640A (ja) |
WO (1) | WO2017172982A1 (ja) |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
JP6344311B2 (ja) * | 2015-05-26 | 2018-06-20 | ソニー株式会社 | 表示装置、情報処理システム及び制御方法 |
KR20230098927A (ko) | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
WO2018013495A1 (en) * | 2016-07-11 | 2018-01-18 | Gravity Jack, Inc. | Augmented reality methods and devices |
US11269480B2 (en) * | 2016-08-23 | 2022-03-08 | Reavire, Inc. | Controlling objects using virtual rays |
US10692287B2 (en) * | 2017-04-17 | 2020-06-23 | Microsoft Technology Licensing, Llc | Multi-step placement of virtual objects |
AU2018256365A1 (en) | 2017-04-19 | 2019-10-31 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
WO2018198909A1 (ja) * | 2017-04-28 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法及びプログラム |
US11184574B2 (en) | 2017-07-17 | 2021-11-23 | Facebook, Inc. | Representing real-world objects with a virtual reality environment |
GB2567172A (en) * | 2017-10-04 | 2019-04-10 | Nokia Technologies Oy | Grouping and transport of audio objects |
KR102029906B1 (ko) * | 2017-11-10 | 2019-11-08 | 전자부품연구원 | 이동수단의 가상현실 콘텐츠 제공 장치 및 방법 |
KR102040858B1 (ko) | 2017-11-29 | 2019-11-06 | 한국과학기술연구원 | 가상 공간의 인터랙션 분석 시스템 및 방법 |
WO2019127052A1 (zh) * | 2017-12-26 | 2019-07-04 | 深圳市大疆创新科技有限公司 | 一种飞行轨迹原路复演方法及飞行器 |
CN108319363A (zh) * | 2018-01-09 | 2018-07-24 | 北京小米移动软件有限公司 | 基于vr的产品展示方法、装置及电子设备 |
US10855564B2 (en) | 2018-01-15 | 2020-12-01 | Worcester Polytechnic Institute | Visualization of network data as a three-dimensional hierarchical data structure in a mixed reality environment |
US10854003B2 (en) * | 2018-01-15 | 2020-12-01 | Worcester Polytechnic Institute | Visualization of network data as a three-dimensional hierarchical data structure in a mixed reality environment |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
US10565718B2 (en) * | 2018-04-18 | 2020-02-18 | Faro Technologies, Inc. | System and method of scanning an environment |
WO2019213111A1 (en) * | 2018-04-30 | 2019-11-07 | Meta View, Inc. | System and method for presenting virtual content in an interactive space |
JP7341166B2 (ja) | 2018-05-22 | 2023-09-08 | マジック リープ, インコーポレイテッド | ウェアラブルシステムのためのトランスモード入力融合 |
US10818093B2 (en) | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
US10885709B2 (en) * | 2018-06-14 | 2021-01-05 | Robert Labron | Virtual reality software system and method for treating medical condition in user |
US11733824B2 (en) * | 2018-06-22 | 2023-08-22 | Apple Inc. | User interaction interpreter |
CN112352189B (zh) * | 2018-06-29 | 2022-07-22 | 华为技术有限公司 | 用于显示三维图像的装置和方法 |
EP3599539B1 (en) * | 2018-07-26 | 2023-08-23 | Nokia Technologies Oy | Rendering objects in virtual views |
US10861249B2 (en) | 2018-07-27 | 2020-12-08 | The Q Digital Technologies, Inc. | Methods and system for manipulating digital assets on a three-dimensional viewing platform |
US11141645B2 (en) | 2018-09-11 | 2021-10-12 | Real Shot Inc. | Athletic ball game using smart glasses |
US11103763B2 (en) | 2018-09-11 | 2021-08-31 | Real Shot Inc. | Basketball shooting game using smart glasses |
WO2020059277A1 (ja) * | 2018-09-20 | 2020-03-26 | 富士フイルム株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
ES2716012B2 (es) * | 2018-09-28 | 2020-07-22 | Univ Leon | Sistema y metodo de interaccion en entornos virtuales utilizando dispositivos hapticos |
KR20200094396A (ko) * | 2019-01-30 | 2020-08-07 | 삼성전자주식회사 | 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법 |
US11442549B1 (en) * | 2019-02-07 | 2022-09-13 | Apple Inc. | Placement of 3D effects based on 2D paintings |
TWI725574B (zh) * | 2019-02-22 | 2021-04-21 | 宏達國際電子股份有限公司 | 頭戴式顯示裝置以及眼球追蹤游標的顯示方法 |
CN111752425B (zh) * | 2019-03-27 | 2022-02-15 | 北京外号信息技术有限公司 | 用于选择在设备的显示媒介上的交互对象的方法 |
CN110287764B (zh) * | 2019-05-06 | 2022-01-11 | 深圳大学 | 姿势预测方法、装置、计算机设备和存储介质 |
CN110162178A (zh) * | 2019-05-22 | 2019-08-23 | 努比亚技术有限公司 | 说明信息的展示方法、可穿戴设备以及存储介质 |
DE102019207803A1 (de) * | 2019-05-28 | 2020-12-03 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Registrierungseinrichtung, Verfahren zum Registrieren, entsprechendes Computerprogramm und computerlesbares Speichermedium |
US11334212B2 (en) | 2019-06-07 | 2022-05-17 | Facebook Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
US11533468B2 (en) | 2019-06-27 | 2022-12-20 | Samsung Electronics Co., Ltd. | System and method for generating a mixed reality experience |
CN111857367B (zh) * | 2019-07-10 | 2023-06-27 | 深圳市工匠社科技有限公司 | 虚拟角色控制方法及装置 |
US10841483B1 (en) * | 2019-07-11 | 2020-11-17 | Denso International America, Inc. | System and method for calibrating at least one camera and a light detection and ranging sensor |
KR102614496B1 (ko) * | 2019-08-09 | 2023-12-15 | 엘지전자 주식회사 | Xr 디바이스 및 그 제어 방법 |
US20210063745A1 (en) * | 2019-08-27 | 2021-03-04 | Apple Inc. | Transparent Display System With Peripheral Illumination |
US11176745B2 (en) | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US10802600B1 (en) * | 2019-09-20 | 2020-10-13 | Facebook Technologies, Llc | Virtual interactions at a distance |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11189099B2 (en) * | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11086406B1 (en) | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
WO2021073733A1 (en) * | 2019-10-16 | 2021-04-22 | Supsi | Method for controlling a device by a human |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11493989B2 (en) * | 2019-11-08 | 2022-11-08 | Magic Leap, Inc. | Modes of user interaction |
WO2021113540A1 (en) * | 2019-12-06 | 2021-06-10 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
EP4094119A4 (en) * | 2020-01-24 | 2024-04-10 | Magic Leap, Inc. | MOVING AND INTERACTING WITH CONTENT USING ONE CONTROL DEVICE |
CN115087905A (zh) | 2020-02-10 | 2022-09-20 | 奇跃公司 | 在混合现实环境中相对于三维容器的以身体为中心的内容定位 |
EP4104436A4 (en) * | 2020-02-14 | 2024-03-13 | Magic Leap, Inc. | VIRTUAL OBJECT MOVEMENT SPEED CURVE FOR VIRTUAL AND AUGMENTED REALITY DISPLAY SYSTEMS |
WO2021173839A1 (en) * | 2020-02-26 | 2021-09-02 | Magic Leap, Inc. | Hand gesture input for wearable system |
WO2021173850A1 (en) * | 2020-02-27 | 2021-09-02 | Magic Leap, Inc. | Cross reality system for large scale environment reconstruction |
CN111383348A (zh) * | 2020-03-17 | 2020-07-07 | 北京理工大学 | 一种虚拟现实远程同步控制机器人的方法 |
JP2021157277A (ja) * | 2020-03-25 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2021162993A (ja) | 2020-03-31 | 2021-10-11 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US11455078B1 (en) | 2020-03-31 | 2022-09-27 | Snap Inc. | Spatial navigation and creation interface |
US11257280B1 (en) * | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
CN111651048B (zh) * | 2020-06-08 | 2024-01-05 | 浙江商汤科技开发有限公司 | 多虚拟对象排列展示方法、装置、电子设备及存储介质 |
CN115989474A (zh) * | 2020-06-22 | 2023-04-18 | 苹果公司 | 显示虚拟显示器 |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
ES2894178B2 (es) * | 2020-08-07 | 2022-09-13 | Ascasibar Ioritz Hontecillas | Sistema de generación de gráficos en tres dimensiones |
US20220057914A1 (en) * | 2020-08-19 | 2022-02-24 | Jason Sauers | Augmented reality targeting system |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
WO2022046340A1 (en) | 2020-08-31 | 2022-03-03 | Sterling Labs Llc | Object engagement based on finger manipulation data and untethered inputs |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
CN116324680A (zh) * | 2020-09-11 | 2023-06-23 | 苹果公司 | 用于操纵环境中的对象的方法 |
CN112198962B (zh) * | 2020-09-30 | 2023-04-28 | 聚好看科技股份有限公司 | 一种与虚拟现实设备交互的方法及虚拟现实设备 |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
US11797162B2 (en) | 2020-12-22 | 2023-10-24 | Snap Inc. | 3D painting on an eyewear device |
US11782577B2 (en) | 2020-12-22 | 2023-10-10 | Snap Inc. | Media content player on an eyewear device |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US12105283B2 (en) * | 2020-12-22 | 2024-10-01 | Snap Inc. | Conversation interface on an eyewear device |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11995230B2 (en) * | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
EP4089506A1 (en) * | 2021-05-10 | 2022-11-16 | Facebook Technologies, LLC | Element-based switching of ray casting rules |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US11521361B1 (en) | 2021-07-01 | 2022-12-06 | Meta Platforms Technologies, Llc | Environment model with surfaces and per-surface volumes |
US12008717B2 (en) | 2021-07-07 | 2024-06-11 | Meta Platforms Technologies, Llc | Artificial reality environment control through an artificial reality environment schema |
CN113838215B (zh) * | 2021-07-30 | 2024-09-24 | 歌尔科技有限公司 | Vr碰撞检测方法及系统 |
US12056268B2 (en) | 2021-08-17 | 2024-08-06 | Meta Platforms Technologies, Llc | Platformization of mixed reality objects in virtual reality environments |
US20230083302A1 (en) * | 2021-09-12 | 2023-03-16 | Sony Interactive Entertainment Inc. | Local environment scanning to characterize physical environment for use in vr/ar |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US12093447B2 (en) | 2022-01-13 | 2024-09-17 | Meta Platforms Technologies, Llc | Ephemeral artificial reality experiences |
US12067688B2 (en) | 2022-02-14 | 2024-08-20 | Meta Platforms Technologies, Llc | Coordination of interactions of virtual objects |
US12008160B2 (en) | 2022-03-30 | 2024-06-11 | Apple Inc. | Eye tracking based selection of a user interface (UI) element based on targeting criteria |
US12026527B2 (en) * | 2022-05-10 | 2024-07-02 | Meta Platforms Technologies, Llc | World-controlled and application-controlled augments in an artificial-reality environment |
US20230385790A1 (en) * | 2022-05-24 | 2023-11-30 | Flybits Inc. | Decentralized, open banking, contextual decision support tool for virtual, augmented, and mixed reality |
US12058301B2 (en) | 2022-06-03 | 2024-08-06 | Apple Inc. | Electronic device that displays virtual objects |
CN115344121A (zh) * | 2022-08-10 | 2022-11-15 | 北京字跳网络技术有限公司 | 用于处理手势事件的方法、装置、设备和存储介质 |
CN115328309A (zh) * | 2022-08-10 | 2022-11-11 | 北京字跳网络技术有限公司 | 用于虚拟对象的交互方法、装置、设备和存储介质 |
US12097427B1 (en) | 2022-08-26 | 2024-09-24 | Meta Platforms Technologies, Llc | Alternate avatar controls |
WO2024090299A1 (ja) * | 2022-10-24 | 2024-05-02 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
US11947862B1 (en) | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
CN118335018A (zh) * | 2023-01-12 | 2024-07-12 | 奥图码股份有限公司 | 显示器、控制显示器的方法以及显示系统 |
WO2024172607A1 (ko) * | 2023-02-17 | 2024-08-22 | 삼성전자 주식회사 | 아이콘을 표시하기 위한 전자 장치, 그 동작 방법과, 비 일시적 컴퓨터 판독 가능 저장 매체 |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218195A (ja) * | 2009-03-17 | 2010-09-30 | Cellius Inc | 画像生成システム、プログラム、情報記憶媒体、及びサーバシステム |
JP2012155678A (ja) * | 2011-01-28 | 2012-08-16 | Konica Minolta Holdings Inc | 表示システム、表示処理装置、表示方法、および表示プログラム |
JP2015536514A (ja) * | 2012-11-30 | 2015-12-21 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Imuを用いた直接ホログラム操作 |
Family Cites Families (149)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04372012A (ja) | 1991-06-20 | 1992-12-25 | Fuji Xerox Co Ltd | 入力装置 |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5590268A (en) | 1993-03-31 | 1996-12-31 | Kabushiki Kaisha Toshiba | System and method for evaluating a workspace represented by a three-dimensional model |
JP3461980B2 (ja) | 1995-08-25 | 2003-10-27 | 株式会社東芝 | 高速描画方法および装置 |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
JP3822357B2 (ja) | 1998-02-09 | 2006-09-20 | 株式会社東芝 | マルチモーダル入出力装置のインタフェース装置及びその方法 |
US6396509B1 (en) * | 1998-02-21 | 2002-05-28 | Koninklijke Philips Electronics N.V. | Attention-based interaction in a virtual environment |
JP2000113220A (ja) | 1998-09-30 | 2000-04-21 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP3126700B2 (ja) | 1999-02-05 | 2001-01-22 | キヤノン株式会社 | 光学機器 |
US20050275626A1 (en) | 2000-06-21 | 2005-12-15 | Color Kinetics Incorporated | Entertainment lighting system |
JP3442736B2 (ja) * | 2000-11-30 | 2003-09-02 | コナミ株式会社 | 画像処理装置、画像処理方法及び情報記憶媒体 |
GB2376397A (en) | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Virtual or augmented reality |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US6776480B2 (en) | 2001-07-18 | 2004-08-17 | Sola International Holdings, Ltd. | Spectacle frames for shaped lenses defined by monoformal carrier surfaces |
WO2005043218A1 (ja) | 2003-10-30 | 2005-05-12 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US7561717B2 (en) | 2004-07-09 | 2009-07-14 | United Parcel Service Of America, Inc. | System and method for displaying item information |
WO2006073936A2 (en) * | 2005-01-04 | 2006-07-13 | Qmotions, Inc. | Baseball simulation device |
US7737965B2 (en) * | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
JP5305561B2 (ja) | 2006-02-22 | 2013-10-02 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
US20070222746A1 (en) * | 2006-03-23 | 2007-09-27 | Accenture Global Services Gmbh | Gestural input for navigation and manipulation in virtual space |
JP4989383B2 (ja) | 2007-09-10 | 2012-08-01 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5145569B2 (ja) | 2007-12-19 | 2013-02-20 | 株式会社国際電気通信基礎技術研究所 | 対象物特定方法および装置 |
JP2009187426A (ja) | 2008-02-08 | 2009-08-20 | Sony Corp | 記録再生装置 |
US8466931B2 (en) | 2008-04-24 | 2013-06-18 | International Business Machines Corporation | Color modification of objects in a virtual universe |
JP2010033296A (ja) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US8266536B2 (en) * | 2008-11-20 | 2012-09-11 | Palo Alto Research Center Incorporated | Physical-virtual environment interface |
US9064023B2 (en) | 2008-12-29 | 2015-06-23 | Avaya Inc. | Providing web content in the context of a virtual environment |
US9176579B2 (en) | 2008-12-29 | 2015-11-03 | Avaya Inc. | Visual indication of user interests in a computer-generated virtual environment |
US20100177117A1 (en) | 2009-01-14 | 2010-07-15 | International Business Machines Corporation | Contextual templates for modifying objects in a virtual universe |
US20100240988A1 (en) | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360 degree heads up display of safety/mission critical data |
US20100265182A1 (en) | 2009-04-20 | 2010-10-21 | Microsoft Corporation | Context-based state change for an adaptive input device |
US20100325572A1 (en) | 2009-06-23 | 2010-12-23 | Microsoft Corporation | Multiple mouse character entry |
US9542010B2 (en) | 2009-09-15 | 2017-01-10 | Palo Alto Research Center Incorporated | System for interacting with objects in a virtual environment |
US20110161060A1 (en) | 2009-12-29 | 2011-06-30 | Changkyu Kim | Optimization-Based exact formulation and solution of crowd simulation in virtual worlds |
KR101114750B1 (ko) | 2010-01-29 | 2012-03-05 | 주식회사 팬택 | 다차원 영상을 이용한 사용자 인터페이스 장치 |
US8704879B1 (en) * | 2010-08-31 | 2014-04-22 | Nintendo Co., Ltd. | Eye tracking enabling 3D viewing on conventional 2D display |
WO2012040827A2 (en) | 2010-10-01 | 2012-04-05 | Smart Technologies Ulc | Interactive input system having a 3d input space |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9292973B2 (en) * | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
JP5472056B2 (ja) | 2010-11-19 | 2014-04-16 | コニカミノルタ株式会社 | 表示システム、表示処理装置、表示方法、および表示プログラム |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
JP5960796B2 (ja) | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
US20120264510A1 (en) * | 2011-04-12 | 2012-10-18 | Microsoft Corporation | Integrated virtual environment |
JP6316186B2 (ja) | 2011-05-06 | 2018-04-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 広範囲同時遠隔ディジタル提示世界 |
US20120320080A1 (en) * | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Motion based virtual object navigation |
USD658094S1 (en) | 2011-06-18 | 2012-04-24 | Dunn Scott E | Rounded square display device for a cord |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
WO2013028813A1 (en) | 2011-08-23 | 2013-02-28 | Microsoft Corporation | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
JP5762892B2 (ja) | 2011-09-06 | 2015-08-12 | ビッグローブ株式会社 | 情報表示システム、情報表示方法、及び情報表示用プログラム |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130104085A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
RU2017115669A (ru) * | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
US20130125066A1 (en) | 2011-11-14 | 2013-05-16 | Microsoft Corporation | Adaptive Area Cursor |
KR102116697B1 (ko) | 2011-11-23 | 2020-05-29 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
US20130215230A1 (en) * | 2012-02-22 | 2013-08-22 | Matt Miesnieks | Augmented Reality System Using a Portable Device |
US8878840B2 (en) * | 2012-03-06 | 2014-11-04 | Autodesk, Inc. | Devices and methods for displaying a sub-section of a virtual model |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
JP6056178B2 (ja) | 2012-04-11 | 2017-01-11 | ソニー株式会社 | 情報処理装置、表示制御方法及びプログラム |
US20130285885A1 (en) | 2012-04-25 | 2013-10-31 | Andreas G. Nowatzyk | Head-mounted light-field display |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9389682B2 (en) | 2012-07-02 | 2016-07-12 | Sony Interactive Entertainment Inc. | Methods and systems for interaction with an expanded information space |
US8754829B2 (en) | 2012-08-04 | 2014-06-17 | Paul Lapstun | Scanning light field camera and display |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
JP2014085954A (ja) | 2012-10-25 | 2014-05-12 | Kyocera Corp | 携帯端末装置、プログラムおよび入力操作受け付け方法 |
US10503359B2 (en) | 2012-11-15 | 2019-12-10 | Quantum Interface, Llc | Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same |
US9317972B2 (en) | 2012-12-18 | 2016-04-19 | Qualcomm Incorporated | User interface for augmented reality enabled devices |
KR20140082266A (ko) * | 2012-12-24 | 2014-07-02 | 한국전자통신연구원 | 혼합현실 콘텐츠 시뮬레이션 시스템 |
JP2014134922A (ja) | 2013-01-09 | 2014-07-24 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
US9696867B2 (en) * | 2013-01-15 | 2017-07-04 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
US9202313B2 (en) | 2013-01-21 | 2015-12-01 | Microsoft Technology Licensing, Llc | Virtual interaction with image projection |
US20150262424A1 (en) | 2013-01-31 | 2015-09-17 | Google Inc. | Depth and Focus Discrimination for a Head-mountable device using a Light-Field Display System |
EP2767953A1 (en) | 2013-02-13 | 2014-08-20 | BlackBerry Limited | Device with enhanced augmented reality functionality |
US20140240351A1 (en) * | 2013-02-27 | 2014-08-28 | Michael Scavezze | Mixed reality augmentation |
US20140258942A1 (en) | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
JP5962547B2 (ja) | 2013-03-08 | 2016-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
KR102019125B1 (ko) | 2013-03-18 | 2019-09-06 | 엘지전자 주식회사 | 3d 디스플레이 디바이스 장치 및 제어 방법 |
JP5900393B2 (ja) | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
JP2016521480A (ja) | 2013-03-22 | 2016-07-21 | セイコーエプソン株式会社 | 赤外線ビデオ表示アイウェア |
EP2983138A4 (en) | 2013-04-04 | 2017-02-22 | Sony Corporation | Display control device, display control method and program |
US9443354B2 (en) | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
US9245388B2 (en) | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
US9383819B2 (en) | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US9129430B2 (en) | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
US10376777B2 (en) | 2013-06-26 | 2019-08-13 | Sony Interactive Entertainment Inc. | Information processor, control method of information processor, program, and information storage medium |
KR102165444B1 (ko) | 2013-08-28 | 2020-10-14 | 엘지전자 주식회사 | 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법 |
US9710067B2 (en) * | 2013-09-05 | 2017-07-18 | Atheer, Inc. | Method and apparatus for manipulating content in an interface |
KR20150037254A (ko) | 2013-09-30 | 2015-04-08 | 엘지전자 주식회사 | 착용형 디스플레이 디바이스 및 레이어 제어 방법 |
US10217284B2 (en) | 2013-09-30 | 2019-02-26 | Qualcomm Incorporated | Augmented virtuality |
EP3053008B1 (en) | 2013-10-01 | 2019-12-25 | Quantum Interface, Llc | Selection attractive interfaces and systems including such interfaces |
IL302408B2 (en) | 2013-10-16 | 2024-09-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
EP3062237A4 (en) | 2013-10-24 | 2017-06-28 | Sony Corporation | Information processing device, information processing method, and program |
US9652892B2 (en) * | 2013-10-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Mixed reality spotlight |
CN110542938B (zh) * | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
JP2015114757A (ja) | 2013-12-10 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR20150084485A (ko) * | 2014-01-14 | 2015-07-22 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어 방법 |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
NZ722903A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
JP6303550B2 (ja) | 2014-02-03 | 2018-04-04 | ブラザー工業株式会社 | 表示プログラムおよび表示装置 |
JP6181574B2 (ja) | 2014-02-20 | 2017-08-16 | ヤフー株式会社 | 情報通知装置、情報通知方法および情報通知プログラム |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
EP3382443B1 (en) * | 2014-03-21 | 2023-07-26 | Samsung Electronics Co., Ltd. | Head-mounted display and method of operating the same |
US9681122B2 (en) | 2014-04-21 | 2017-06-13 | Zspace, Inc. | Modifying displayed images in the coupled zone of a stereoscopic display based on user comfort |
WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CN113253476B (zh) | 2014-05-30 | 2022-12-27 | 奇跃公司 | 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
US20170220225A1 (en) | 2014-06-02 | 2017-08-03 | Apelab Sarl | A method and system for providing interactivity within a virtual environment |
US9971492B2 (en) | 2014-06-04 | 2018-05-15 | Quantum Interface, Llc | Dynamic environment for object and attribute display and interaction |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
CN112651288B (zh) | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US20150378440A1 (en) | 2014-06-27 | 2015-12-31 | Microsoft Technology Licensing, Llc | Dynamically Directing Interpretation of Input Data Based on Contextual Information |
US10269184B2 (en) | 2014-07-23 | 2019-04-23 | Sony Corporation | Information processing apparatus, information processing method, and image display system |
US20160027218A1 (en) | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US9990774B2 (en) * | 2014-08-08 | 2018-06-05 | Sony Interactive Entertainment Inc. | Sensory stimulus management in head mounted display |
WO2016031358A1 (ja) | 2014-08-27 | 2016-03-03 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
FR3028727B1 (fr) | 2014-11-21 | 2018-01-26 | L'oreal | Applicateur pour appliquer un produit cosmetique de maquillage ou de soin |
US10740971B2 (en) * | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US9965697B2 (en) * | 2015-05-18 | 2018-05-08 | Intel Corporation | Head pose determination using a camera and a distance determination |
CN107683497B (zh) | 2015-06-15 | 2022-04-08 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
EP3118722B1 (en) | 2015-07-14 | 2020-07-01 | Nokia Technologies Oy | Mediated reality |
US10101803B2 (en) | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
KR20230098927A (ko) | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
WO2017184604A1 (en) | 2016-04-18 | 2017-10-26 | Ifm Therapeutics, Inc | Compounds and compositions for treating conditions associated with nlrp activity |
KR102548818B1 (ko) | 2016-04-21 | 2023-06-28 | 매직 립, 인코포레이티드 | 시야 주위의 시각적 아우라 |
CA3033344A1 (en) | 2016-08-11 | 2018-02-15 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
US10388077B2 (en) | 2017-04-25 | 2019-08-20 | Microsoft Technology Licensing, Llc | Three-dimensional environment authoring and generation |
KR20220100102A (ko) | 2017-09-29 | 2022-07-14 | 애플 인크. | 시선-기반 사용자 상호작용 |
JP2023097014A (ja) | 2021-12-27 | 2023-07-07 | 株式会社リコー | 液体吐出装置及び液体吐出方法 |
-
2017
- 2017-03-29 KR KR1020237021779A patent/KR20230098927A/ko not_active Application Discontinuation
- 2017-03-29 WO PCT/US2017/024844 patent/WO2017172982A1/en active Application Filing
- 2017-03-29 NZ NZ746640A patent/NZ746640A/en unknown
- 2017-03-29 CN CN202210649442.3A patent/CN114995594A/zh active Pending
- 2017-03-29 US US15/473,444 patent/US10078919B2/en active Active
- 2017-03-29 EP EP17776592.2A patent/EP3436863B1/en active Active
- 2017-03-29 IL IL303608A patent/IL303608A/en unknown
- 2017-03-29 KR KR1020227029325A patent/KR102551198B1/ko active IP Right Grant
- 2017-03-29 JP JP2018550396A patent/JP6904973B2/ja active Active
- 2017-03-29 EP EP24187288.6A patent/EP4418070A2/en active Pending
- 2017-03-29 CN CN201780033339.3A patent/CN109196447B/zh active Active
- 2017-03-29 CA CA3018758A patent/CA3018758A1/en active Pending
- 2017-03-29 AU AU2017244109A patent/AU2017244109B2/en active Active
- 2017-03-29 IL IL289973A patent/IL289973B2/en unknown
- 2017-03-29 KR KR1020187031477A patent/KR102438052B1/ko active IP Right Grant
-
2018
- 2018-08-02 US US16/053,620 patent/US10417831B2/en active Active
- 2018-09-20 IL IL261890A patent/IL261890B/en unknown
-
2019
- 2019-08-02 US US16/530,901 patent/US10510191B2/en active Active
- 2019-11-13 US US16/682,851 patent/US10733806B2/en active Active
-
2020
- 2020-06-24 US US16/911,166 patent/US11049328B2/en active Active
-
2021
- 2021-05-17 JP JP2021083134A patent/JP7209041B2/ja active Active
- 2021-06-28 US US17/361,059 patent/US11657579B2/en active Active
-
2022
- 2022-08-12 JP JP2022128859A patent/JP7186913B2/ja active Active
- 2022-08-31 AU AU2022224790A patent/AU2022224790A1/en not_active Abandoned
-
2023
- 2023-01-06 JP JP2023001014A patent/JP7549681B2/ja active Active
- 2023-04-11 US US18/298,983 patent/US12051167B2/en active Active
-
2024
- 2024-06-18 US US18/746,617 patent/US20240338912A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218195A (ja) * | 2009-03-17 | 2010-09-30 | Cellius Inc | 画像生成システム、プログラム、情報記憶媒体、及びサーバシステム |
JP2012155678A (ja) * | 2011-01-28 | 2012-08-16 | Konica Minolta Holdings Inc | 表示システム、表示処理装置、表示方法、および表示プログラム |
JP2015536514A (ja) * | 2012-11-30 | 2015-12-21 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Imuを用いた直接ホログラム操作 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6904973B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 | |
JP7116166B2 (ja) | 拡張現実システムのための仮想レチクル | |
JP7118007B2 (ja) | 視野周辺の視覚的背光 | |
NZ786547A (en) | Interactions with 3d virtual objects using poses and multiple-dof controllers | |
NZ786551A (en) | Interactions with 3d virtual objects using poses and multiple-dof controllers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7209041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |