JP2018534687A - 3次元空間内の仮想オブジェクトの選択 - Google Patents
3次元空間内の仮想オブジェクトの選択 Download PDFInfo
- Publication number
- JP2018534687A JP2018534687A JP2018519943A JP2018519943A JP2018534687A JP 2018534687 A JP2018534687 A JP 2018534687A JP 2018519943 A JP2018519943 A JP 2018519943A JP 2018519943 A JP2018519943 A JP 2018519943A JP 2018534687 A JP2018534687 A JP 2018534687A
- Authority
- JP
- Japan
- Prior art keywords
- user
- user input
- virtual
- objects
- interactable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 166
- 230000003993 interaction Effects 0.000 claims description 96
- 238000003384 imaging method Methods 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 48
- 230000004044 response Effects 0.000 claims description 44
- 238000004891 communication Methods 0.000 claims description 9
- 238000013500 data storage Methods 0.000 claims description 8
- 230000000977 initiatory effect Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 161
- 210000003128 head Anatomy 0.000 description 96
- 230000008569 process Effects 0.000 description 47
- 230000003287 optical effect Effects 0.000 description 37
- 238000012545 processing Methods 0.000 description 24
- 210000001747 pupil Anatomy 0.000 description 23
- 230000004308 accommodation Effects 0.000 description 15
- 238000000605 extraction Methods 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 13
- 238000005266 casting Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000003190 augmentative effect Effects 0.000 description 11
- 241000283153 Cetacea Species 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 6
- 230000035807 sensation Effects 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 210000003813 thumb Anatomy 0.000 description 6
- 241000406668 Loxodonta cyclotis Species 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000009191 jumping Effects 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000011049 filling Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 244000144992 flock Species 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000008521 reorganization Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013124 brewing process Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Abstract
Description
本願は、米国仮出願第62/244,115号、出願日2015年10月20日、発明の名称“USER APPLICATIONS, INTERFACES, AND EXPERIENCES WITH AUGMENTED REALITY DISPLAY DEVICES”、米国仮出願第62/301,422号、出願日2016年2月29日、発明の名称 “SELECTING VIRTUAL OBJECTS IN 3D SPACE”、および第62/316,179号、出願日2016年3月31日、発明の名称“SELECTING VIRTUAL OBJECTS IN 3D SPACE”に対する35 U.S.C.§119(e)の下での優先権を主張するものである。上記仮出願の全ては、その全体が参照により本明細書中に援用される。
AR/VR/MRデバイスの使用を用いることで、ユーザは、仮想ユーザインターフェースを使用して、3次元(3D)空間内のオブジェクトを標的化および選択することを所望し得る。例えば、ユーザは、アイテムに物理的に接近する、それを握持する、またはそれに触れる等、身体姿勢を使用して、仮想オブジェクトを選択してもよい。ユーザはまた、仮想光線またはビームを用いて、オブジェクトをポインティングし、クリックすることによって、仮想オブジェクトを選択してもよい。しかし、これらの技法は、ユーザが選択を達成するためにその姿勢を静止して保持することが要求され得るため、疲労を生じさせ得、かつオブジェクトを精密に選択することが困難であり得る。
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。図1では、MR場面100は、描写され、MR技術のユーザには、人々、木々、背景内の建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、MR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、ウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つまたはそれを上回る触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力および/またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
図12は、視野(FOV)内の仮想オブジェクトおよび動眼視野(FOR)内の仮想オブジェクトの実施例を図式的に図示する。図4を参照して議論されるように、FORは、ウェアラブルシステムを介してユーザによって知覚可能なユーザの周囲の環境の一部を備える。図12では、FOR1200は、ウェアラブルシステムを介して、ユーザによって知覚され得る、オブジェクトのグループ(例えば、1210、1220、1230、1242、および1244)を含有することができる。ユーザのFOR1200内のオブジェクトは、仮想および/または物理的オブジェクトであってもよい。例えば、ユーザのFOR1200は、椅子、ソファ、壁等の物理的オブジェクトを含んでもよい。仮想オブジェクトは、例えば、削除されたファイルのためのゴミ箱、コマンドを入力するための端末、ファイルまたはディレクトリにアクセスするためのファイルマネージャ、アイコン、メニュー、オーディオまたはビデオストリーミングのためのアプリケーション、オペレーティングシステムからの通知等のオペレーティングシステムオブジェクトを含んでもよい。仮想オブジェクトはまた、例えば、アバタ、ゲーム内の仮想オブジェクト、グラフィックまたは画像等、アプリケーション内のオブジェクトを含んでもよい。いくつかの仮想オブジェクトは、オペレーティングシステムオブジェクトおよびアプリケーション内のオブジェクトの両方であることができる。いくつかの実施形態では、ウェアラブルシステムは、仮想要素を既存の物理的オブジェクトに追加することができる。例えば、ウェアラブルシステムは、部屋内のテレビと関連付けられた仮想メニューを追加してもよく、仮想メニューは、ユーザに、ウェアラブルシステムを使用して、テレビをオンにする、またはチャンネルを変更するためのオプションを与えてもよい。
図12では、ユーザは、ユーザのFOR1200内のオブジェクトのサブセットと相互作用することができる。本オブジェクトのサブセットは、時として、相互作用可能オブジェクトと称され得る。いくつかの実装では、相互作用可能オブジェクトは、ユーザの環境内の全てのオブジェクト(仮想および物理的)を包含してもよい一方、他の実装では、相互作用可能オブジェクトは、ユーザの環境内のオブジェクトの一部のみを含んでもよい。
ウェアラブルシステムは、ユーザが標的相互作用可能オブジェクトをより容易に知覚することができるように、焦点インジケータを標的相互作用可能オブジェクトに割り当ててもよい。焦点インジケータは、ユーザに表示されることができる。例えば、焦点インジケータは、後光、色、知覚されるサイズまたは深度の変化(例えば、選択されたときに標的オブジェクトをより近くにおよび/またはより大きく現せさせる)、またはユーザの注意を引き出す他の視覚的効果を備えることができる。焦点インジケータはまた、振動、リングトーン、ビープ等の可聴または触知効果を含むことができる。
ユーザは、ウェアラブルシステムを通して、ユーザのFOR1200内の相互作用可能オブジェクト、特に、ユーザの現在のFOV1250内の相互作用可能オブジェクトと相互作用することができる。例えば、仮想オブジェクト1230は、経時的に株価の変化を示す、グラフであってもよい。仮想オブジェクト1230を選択することによって、ユーザは、仮想オブジェクト1230と相互作用し、例えば、株価情報を得る、株を購入または販売する、企業についての情報を得る等を行ってもよい。これらの相互作用を行うために、ウェアラブルシステムは、ユーザが種々のアクション(例えば、株価情報を得る)を行うことを可能にすることができる、仮想オブジェクトと関連付けられたメニュー、ツールバー等を表示してもよい。
ユーザは、ユーザ入力デバイスを作動させることによって、相互作用可能オブジェクトを標的化および選択してもよい。図13Aは、ユーザ入力デバイス1300のタッチスクリーン1310上のタッチジェスチャを用いた相互作用可能オブジェクトの選択の実施例である。ユーザ入力デバイスは、図4に示されるユーザ入力デバイス466の実施形態であってもよい。タッチジェスチャは、ウェアラブルシステムをトリガし、焦点インジケータをユーザのFOV内の標的相互作用可能オブジェクトに割り当てることができる。タッチジェスチャもまた、単独で、または組み合わせて、ウェアラブルシステムに、選択イベントを開始させる、相互作用イベントを開始させる、選択イベントを終了させる、相互作用イベントを終了させる、標的相互作用可能オブジェクトの選択を確認させる等を行わせることができる。
図14は、頭部姿勢のための座標系の実施例である。頭部1410は、複数の自由度を有してもよい。頭部1410が異なる方向に向かって移動するにつれて、頭部姿勢は、自然静止方向1420に対して変化するであろう。図14における座標系は、頭部の自然静止状態1420に対して頭部姿勢を測定するために使用され得る、3つの角度自由度(例えば、ヨー、ピッチ、およびロール)を示す。図14に図示されるように、頭部1410は、順方向および逆方向に傾斜する(例えば、ピッチ)、左および右に旋回させる(例えば、ヨー)、横方向に傾斜させる(例えば、ロール)ことができる。他の実装では、頭部姿勢を測定するための他の技法または角度表現も、使用されることができ、例えば、任意の他のタイプのオイラー角系である。
ユーザはまた、ユーザの姿勢とユーザの手のジェスチャの組み合わせを使用して、仮想オブジェクトを選択することができる。実施例として、ユーザは、ユーザのFOV内の仮想オブジェクトのグループを知覚することができる。本仮想オブジェクトのグループは、本明細書に説明される選択可能オブジェクトの実施形態であってもよい。仮想オブジェクトのグループは、図2、4−6を参照して説明されるライトフィールドディスプレイを使用して提示されてもよい。ライトフィールドディスプレイは、いくつかの仮想オブジェクトが別の仮想オブジェクトの正面に現れ得るように、異なる深度平面における仮想オブジェクトをユーザに投影することができる。
ウェアラブルシステムは、コンテキスト情報に基づいて、ユーザの相互作用のモード(例えば、姿勢またはユーザ入力デバイス上での手のジェスチャ)を自動的に選択または推奨することができる。コンテキスト情報は、オブジェクトのタイプ(例えば、物理的または仮想)、オブジェクトのレイアウト(例えば、オブジェクトの密度、オブジェクトの場所およびサイズ等)、ユーザの特性、または環境内のオブジェクトとのユーザの現在の相互作用、組み合わせ、または同等物を含むことができる。例えば、レイキャスティング(図10を参照して説明される)の間、ウェアラブルシステムは、ユーザが相互に近接して位置する複数の仮想オブジェクトを見ていることを検出し得る。ウェアラブルシステムは、ユーザのFOV内の仮想オブジェクトの密度を計算することができる。密度がある閾値を超えると、ウェアラブルシステムは、ユーザに、ユーザ相互作用のモードを切り替えることを推奨することができる。例えば、密度がある閾値を超える(オブジェクトが相互に非常に近接して位置することを示す)と、ウェアラブルシステムは、オブジェクトとのより精密な相互作用を可能にするように、ユーザ相互作用のモードを頭部姿勢からユーザ入力デバイス上での手のジェスチャに切り替えることができる。別の実施例として、密度がある閾値を下回って降下する(オブジェクトが相互から離れていることを示す)と、ウェアラブルシステムは、ユーザ相互作用のモードをユーザ入力デバイス上での手のジェスチャから頭部姿勢に切り替えることができる。これらの実装は、頭部位置が正確に制御することが困難であり得、ユーザが、その頭部を正確に位置付け、高密度にクラスタ化されたオブジェクトと相互作用しようとするとき、ユーザを疲労させ得るため、特に有利であり得る。一方、ユーザ入力デバイス上での手のジェスチャは、ユーザの位置のより精緻化された制御を提供し得るが、ユーザが、低密度に位置するオブジェクトを選択するために、長距離にわたってその手を移動させる必要があるとき、ユーザを疲労させ得る。
実施例として、図16では、ウェアラブルシステムは、仮想TV1632、仮想掛け時計1634、仮想コーヒーマグカップ1636、および天気アプリケーション1638間の相対的位置を判定することができる。これらの4つのオブジェクトは、相互に近接するため、ウェアラブルシステムが、ユーザの現在の位置が位置1620にあることを判定すると、ウェアラブルシステムは、ユーザに、頭部姿勢から手制御に切り替えることを所望するかどうかのオプションを提示してもよい。
ウェアラブルシステムはまた、ユーザ相互作用のモードを自動的に切り替えることができる。例えば、ユーザ相互作用のモードは、ユーザが仮想ユーザインターフェース平面1512、1514、1516間で選択するとき、頭部姿勢に設定されてもよい。いったんユーザが、仮想ユーザインターフェース平面を選択すると、ユーザ相互作用のモードは、ユーザ入力デバイス上での手のジェスチャに自動的に変更されてもよい(図16に示されるように)。別の実施例として、ユーザ相互作用のモードは、オブジェクトが十分に低密度であるとき、またはオブジェクトのレイアウトがある基準を満たすとき(オブジェクト間に遮蔽が存在しないとき等)、身体姿勢に設定されることができる。ウェアラブルシステムは、オブジェクトが高密度に位置するとき、またはオブジェクトのレイアウトがもはや基準を満たさないとき(1つのオブジェクトが別のオブジェクトを遮蔽するとき等)、ユーザ相互作用のモードをユーザ入力デバイス上での手のジェスチャに自動的に変更することができる。
いくつかの実装では、ウェアラブルシステムは、ユーザが手のジェスチャに切り替えたとき、仮想オブジェクトの高密度クラスタを1つまたはそれを上回る固定された深度平面に再位置付けしてもよい。図12、13A−13Bを参照して説明されるように、ユーザは、固定された深度平面内の仮想オブジェクトを選択する、または手のジェスチャを使用して深度平面を切り替えることができる。本実装は、それぞれ3D空間内の若干異なる深度平面に位置する仮想オブジェクト間をナビゲートすることによって生じるユーザ入力デバイス上の煩雑動作を低減させるため、特に有利であり得る。
ユーザは、ユーザが相互作用可能オブジェクトを選択した後、相互作用イベントをそのFOV内の相互作用可能オブジェクト上で開始することができる。いくつかの実装では、仮想オブジェクトは、物理的オブジェクトに対応してもよい。その結果、ユーザが、相互作用イベントを仮想オブジェクト上で行うと、仮想オブジェクトは、物理的オブジェクトと通信し、それによって、ユーザが、仮想ユーザインターフェースを介して、物理的オブジェクトと相互作用することを可能にしてもよい。例えば、図16における3Dコーヒーマグカップ1636は、ユーザの環境内のコーヒーマシンと通信してもよい。3Dコーヒーマグカップ1636に示される水位は、コーヒー生成進行度を表してもよい。実施例として、水位は、最初に、コーヒーマシンがアイドルであるため、不可視であってもよい。ユーザは、3Dコーヒーマグカップ1636を選択し、相互作用イベントを開始することができ、これは、ウェアラブルシステムに、命令をユーザの台所内のコーヒーマシンに送信させ、コーヒーの淹出を開始させる。淹出プロセスの間、3Dコーヒーマグカップ1636内の水位は、コーヒーマシンがより多くのコーヒーを生成するにつれて徐々に増加してもよい。コーヒーマシンが、淹出を終了すると、ウェアラブルシステムは、3Dコーヒーマグカップ1636が一杯であることを示してもよい。いくつかの実装では、ウェアラブルシステムはまた、焦点インジケータ(音または後光等)を3Dコーヒーマグカップ上に提供して、コーヒーの淹出を終了したことを示してもよい。
図19は、姿勢とユーザ入力デバイス上での手のジェスチャの組み合わせを使用して仮想オブジェクトを選択するための例示的プロセスを図示する。プロセス1900は、本明細書に説明されるウェアラブルシステム(例えば、HMD)によって(例えば、処理モジュール260、270の一方または両方によって)行われることができる。ウェアラブルシステムは、ユーザ入力デバイス(例えば、図4におけるユーザ入力デバイス466参照)と、外向きに面したイメージングシステム(例えば、図4における外向きに面したイメージングシステム464参照)および内向きに面したイメージングシステム(例えば、図4における内向きに面したイメージングシステム462参照)等の種々のイメージングシステムとを含んでもよい。
図21は、コンテキスト情報に基づいて、入力制御を頭部姿勢から手のジェスチャに切り替えるための例示的プロセスを図示する。プロセス2100は、本明細書に説明されるウェアラブルシステムによって(例えば、処理モジュール260、270の一方または両方によって)行われることができる。
(ARおよびMR視覚的体験の付加的実施例)
上記に説明されるように、ウェアラブルシステム(頭部搭載型ディスプレイ等)は、物理的世界上に重畳された3D仮想オブジェクトを提示するように構成されることができる。例えば、ウェアラブルデバイスのユーザは、学校の体育館に居て、ローカルの物理的環境および物理的オブジェクト(例えば、体育館および体育館内で着座または起立している生徒)を知覚するだけではなく、また、物理的世界(例えば、学校の体育館)上に重畳された仮想オブジェクトを知覚してもよい。仮想オブジェクトは、水しぶきによって囲繞される飛び上がるクジラを含んでもよい。例えば、ユーザは、クジラが、学校の体育館の床から現れ、体育館を部分的に横断して飛び上がり、床上の大きな水しぶきの中に着水し、次いで、消失するという体験を知覚することができる。本実施例では、ウェアラブルシステムは、領域のサブ領域から(例えば、体育館の床から)発生するよう装着者によって知覚されように、飛び上がるクジラの画像を表示するために、装着者が視認している外界内の領域の寸法(例えば、本実施例では、体育館のサイズ)を判定し、飛び上がるクジラおよび水しぶきが現実的かつ生きているようにユーザに現れるように、図4−6に説明されるライトフィールドディスプレイを使用することができる。いくつかの実装では、ウェアラブルシステムは、ユーザ(例えば、図2に示されるスピーカ240を介して)に、ユーザに表示される画像に伴う、飛び上がるクジラの音を提示することができる。ARシステムは、(加えて、または代替として)テキストまたはグラフィック等の付加的仮想コンテンツをユーザによって視認される場面上に表示することができる。例えば、ARシステムは、仮想クジラが体育館の床から飛び上がるように見える前、間、または後、クジラについての情報(クジラのタイプ、年齢、習性等)を装着者に表示し得る。
仮想ユーザインターフェースとのユーザ相互作用の実施例として、ウェアラブルシステムのユーザは、人々が踊っている物理的部屋内の仮想オブジェクトを知覚し、それと相互作用することができる。本実施例では、ユーザは、ディスクジョッキー(DJ)であってもよく、ウェアラブルシステムは、DJに、DJの手の移動(例えば、ジェスチャ)によって操作され得る、仮想UIを表示することができる。仮想UIは、DJがUIと相互作用することを可能にする、仮想コンテンツを含むことができる。本実施例では、仮想UIは、踊っている人に再生される音を制御し得る、DJオーディオ制御システムであるように構成されることができる。UIは、ジェスチャを介してDJによって調節され得る、ダイヤル(例えば、ジョグシャトルダイヤル)、スイッチ、スライダ、ボタン、またはターンテーブル等のユーザ入力特徴を含むことができる。仮想UIは、音レベルグラフィックまたはイコライザ等の出力特徴を含むことができる。出力特徴は、音レベルまたはオーディオミックスがDJによって変更されるにつれて、リアルタイムで応答することができる。ウェアラブルシステムの外向きに面したイメージングシステムは、DJの手および腕をイメージングし、DJのジェスチャ(例えば、手または指移動)を判定することができる。判定されたジェスチャに応答して、ウェアラブルシステムは、例えば、音量の増減、音楽のフェーディングまたはパニング、音楽の混合等によって、オーディオを調節することができる。
あるグループの人物がそれぞれ、ウェアラブルデバイスを装着するとき、ユーザは、AR/VR/MR環境内で別のユーザと相互作用することができる。例えば、グループ内の人々は、装着しているウェアラブルデバイスを介して、仮想コンテンツ(画像、ビデオ、音、テキスト等を含むことができる)を享受する、それと相互作用する、それを共有する、またはそれを操作する(例えば、ジェスチャを介して)ことができる。
第1の側面では、仮想コンテンツを視認するための方法であって、ユーザの視野内の領域に関連する領域データにアクセスするステップと、領域データを分析し、仮想コンテンツが表示されることになる領域のサブ領域を識別するステップと、領域データおよびサブ領域データに部分的に基づいて、仮想コンテンツにアクセスする、またはそれを生成するステップと、ユーザによって視認されると、仮想コンテンツが領域のサブ領域内または上に配置されるよう現れるように、仮想コンテンツを表示するステップとを含む、方法。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (20)
- ウェアラブルデバイスのためのユーザ入力モードを変更するためのシステムであって、
3次元(3D)ビューをユーザに提示するように構成される、ウェアラブルデバイスのディスプレイシステムであって、前記3Dビューは、相互作用可能オブジェクトを備える、ウェアラブルデバイスのディスプレイシステムと、
ユーザ入力を受信するように構成される、ユーザ入力デバイスと、
前記ユーザの姿勢と関連付けられたデータを取得するように構成される、センサと、
前記ユーザ入力デバイスと通信する、ハードウェアプロセッサであって、
前記相互作用可能オブジェクトと相互作用するための現在のユーザ入力モードが、第1のユーザ入力モードであるかまたは第2のユーザ入力モードであるかを判定することであって、
前記第1のユーザ入力モードは、少なくとも部分的に、前記ユーザの姿勢に基づいており、
前記第2のユーザ入力モードは、少なくとも部分的に、前記ユーザ入力デバイスからのユーザ入力に基づいている、ことと、
前記現在のユーザ入力モードが前記第1のユーザ入力モードであることの判定に応答して、
前記センサを使用して、前記ユーザの姿勢を監視することと、
前記ディスプレイシステムを介して、少なくとも部分的に、前記監視される姿勢に基づいて、前記第1のユーザ入力モードと関連付けられた第1の形状における焦点インジケータを前記ユーザの姿勢に関連する方向に提示することと、
第1のインジケーションを受信し、前記第2のユーザ入力モードに切り替えることと、
前記第1のインジケーションに応答して、前記現在のユーザ入力モードを前記第2のユーザ入力モードに切り替えることと、
前記現在のユーザ入力モードが前記第2のユーザ入力モードであることの判定に応答して、
前記ユーザ入力デバイスからのユーザ入力を監視することと、
前記ディスプレイシステムを介して、少なくとも部分的に、前記監視される入力に基づいて、前記第2のユーザ入力モードと関連付けられた第2の形状における焦点インジケータを提示することと、
第2のインジケーションを受信し、前記第1のユーザ入力モードに切り替え、
前記第2のインジケーションに応答して、前記現在のユーザ入力モードを前記第1のユーザ入力モードに切り替えることと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記プロセッサはさらに、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記ユーザの視野(FOV)を判定することであって、前記FOVは、前記ユーザによって所与の時間に知覚された前記ユーザの環境の一部を備える、ことと、
前記FOVと関連付けられたコンテキスト情報を判定することであって、前記コンテキスト情報は、前記FOV内の前記相互作用可能オブジェクトのレイアウト、前記FOVのサイズ、前記ユーザのFOV内の前記相互作用可能オブジェクトのうちの1つまたはそれを上回るもののサイズのうちの少なくとも1つを備える、ことと、
少なくとも部分的に、前記コンテキスト情報に基づいて、前記第1のユーザ入力モードから前記第2のユーザ入力モードにまたは前記第2のユーザ入力モードから前記第1のユーザ入力モードに切り替えるためのオプションを提示することと
を行うようにプログラムされる、請求項1に記載のシステム。 - 前記オプションを提示するために、前記プロセッサは、前記現在のユーザ入力モードが前記第1のユーザ入力モードにあるとき、前記第2の形状における前記焦点インジケータを提示し、前記現在のユーザ入力モードが前記第2のユーザ入力モードにあるとき、前記第1の形状における前記焦点インジケータを提示するようにプログラムされる、請求項3に記載のシステム。
- 前記第1のインジケーションは、前記ユーザの姿勢における変化を備え、前記第2のインジケーションは、前記ユーザ入力デバイスの作動を備える、請求項1に記載のシステム。
- 前記ユーザの姿勢は、頭部姿勢、眼姿勢、足姿勢、または身体姿勢のうちの少なくとも1つを備える、または前記センサは、内向きに面したイメージングシステム、外向きに面したイメージングシステム、または慣性測定ユニットのうちの少なくとも1つを備える、または前記ディスプレイシステムは、前記相互作用可能オブジェクトのうちの1つまたはそれを上回るものを複数の深度平面に表示するように構成される、ライトフィールドディスプレイを備える、請求項1−4のいずれか1項に記載のシステム。
- ウェアラブルデバイスのためのユーザ入力モードを変更するための方法であって、
コンピュータプロセッサを備えるウェアラブルデバイスの制御下であって、前記ウェアラブルデバイスは、ユーザの動眼視野(FOR)内の相互作用可能オブジェクトとのユーザ相互作用を可能にするように構成され、前記FORは、前記ウェアラブルデバイスのディスプレイシステムを介して前記ユーザによって知覚可能な前記ユーザの周囲の環境の一部を備える、ウェアラブルデバイスの制御下で、
ユーザの姿勢を判定するステップと、
前記ディスプレイシステムを介して、標的相互作用可能オブジェクトと関連付けられた第1の焦点インジケータを前記ユーザの姿勢に関連する方向に表示するステップであって、前記標的相互作用可能オブジェクトは、複数の仮想オブジェクトを備える、ステップと、
前記標的相互作用可能オブジェクトの選択を受信するステップと、
前記ユーザ入力モードを姿勢からユーザ入力デバイス上での手のジェスチャに切り替えるためのオプションを前記ユーザに提示するステップと、
前記ディスプレイシステムを介して、前記複数の仮想オブジェクトを表示するステップと、
前記ユーザが前記ユーザ入力モードを姿勢から前記ユーザ入力デバイス上での手のジェスチャに切り替えたことの判定に応答して、前記ディスプレイシステムを介して、前記複数の仮想オブジェクトのうちの標的仮想オブジェクトと関連付けられた第2の焦点インジケータを表示するステップと、
少なくとも部分的に、前記ユーザ入力デバイスからのユーザ入力に基づいて、前記第2の焦点インジケータを更新するステップと
を含む、方法。 - 前記オプションは、前記標的相互作用可能オブジェクトの選択または前記複数の仮想オブジェクトまたは前記標的相互作用可能オブジェクトと関連付けられたコンテキスト情報に応答して提示される、請求項6に記載の方法。
- 前記コンテキスト情報は、前記複数の仮想オブジェクトの密度を備え、前記ユーザ入力モードを姿勢からユーザ入力デバイス上での手のジェスチャに切り替えるためのオプションは、前記複数の仮想オブジェクトの密度が閾値密度を超えることの判定に応答して提示されるステップを含む、請求項7に記載の方法。
- 前記第2の焦点インジケータを更新するステップは、前記第2の焦点インジケータを前記標的仮想オブジェクトから前記複数の仮想オブジェクトのうちの別の仮想オブジェクトに移行するステップを含む、請求項6に記載の方法。
- 選択イベントを前記標的仮想オブジェクト上で開始するステップをさらに含み、前記選択イベントは、前記標的仮想オブジェクトと関連付けられたメニューを開くステップまたは前記標的仮想オブジェクトを選択するインジケーションを受信するステップのうちの少なくとも1つを備える、請求項6に記載の方法。
- 前記標的仮想オブジェクトは、少なくとも部分的に、前記ユーザの姿勢に少なくとも部分的に基づいて、識別される、請求項6−10のいずれか1項に記載の方法。
- 前記複数の仮想オブジェクトは、天気アプリケーションまたは天文学アプリケーションのうちの少なくとも1つを備え、前記天気アプリケーションの選択に応答して、前記ウェアラブルデバイスは、前記ユーザの環境内のオブジェクト上に重畳された仮想天気情報を表示するようにプログラムされ、前記天文学アプリケーションの選択に応答して、前記ウェアラブルデバイスは、前記ユーザの環境上に重畳された3次元仮想惑星を備える相互作用可能惑星系を表示するようにプログラムされる、請求項6に記載の方法。
- 3次元(3D)空間内に位置する仮想オブジェクトを選択するためのウェアラブルシステムであって、
仮想オブジェクトを3D空間内に提示するように構成される、ディスプレイシステムと、
相互作用可能オブジェクトを前記3D空間内に記憶するように構成される、非一過性データ記憶と、
ユーザの姿勢を判定するように構成される、センサと、
前記ディスプレイシステム、前記データ記憶、および前記センサと通信するようにプログラムされる、ハードウェアプロセッサであって、
少なくとも部分的に、前記センサから受信されたデータに基づいて、前記ユーザの姿勢を判定することと、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記ユーザの視野(FOV)を判定することであって、前記FOVは、前記ユーザによって所与の時間に知覚された前記ユーザの環境の一部を備える、ことと、
前記FOV内の相互作用可能オブジェクトのグループを識別することと、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記FOV内の標的相互作用可能オブジェクトを識別することと、
前記標的相互作用可能オブジェクトと関連付けられた選択イベントを開始することと
を行う、ハードウェアプロセッサと
を備える、ウェアラブルシステム。 - 前記相互作用可能オブジェクトのグループは、データ構造内に記憶され、各相互作用可能オブジェクトと関連付けられたインデックスは、少なくとも部分的に、前記3D空間内の前記相互作用可能オブジェクトの位置に基づいて、判定される、請求項13に記載のウェアラブルシステム。
- 前記標的相互作用可能オブジェクト上での選択イベントの開始に応答して、前記ウェアラブルシステムのプロセッサは、2次元(2D)インターフェース内に、前記3D空間内の前記標的相互作用可能オブジェクトの閾値範囲内の仮想オブジェクトを提示するようにプログラムされる、請求項13に記載のウェアラブルシステム。
- 前記2Dインターフェースは、ユーザ入力デバイスを介して相互作用可能である、請求項15に記載のウェアラブルシステム。
- 前記FOV内の標的相互作用可能オブジェクトを識別するために、前記プロセッサは、
前記ユーザの姿勢に基づいて、前記ユーザの視線の経路を判定し、前記視線の経路と交差する相互作用可能オブジェクトを前記標的相互作用可能オブジェクトとして選択するステップ、または
前記ユーザのFOV内の最左または最右相互作用可能オブジェクトを前記標的相互作用可能オブジェクトとして選択するステップであって、前記最左または前記最右相互作用可能オブジェクトは、少なくとも部分的に、前記相互作用可能オブジェクトのグループと関連付けられたインデックスに基づいて選択される、ステップ、
のうちの少なくとも1つを行うように構成される、請求項13に記載のウェアラブルシステム。 - 前記プロセッサは、ユーザ入力デバイスからの入力の受信または前記ユーザの姿勢の変化の検出のうちの少なくとも1つに応答して、前記選択イベントを開始するように構成される、請求項13に記載のウェアラブルシステム。
- 前記プロセッサはさらに、前記標的相互作用可能オブジェクトと関連付けられた焦点インジケータを提示するように構成される、請求項13−19のいずれか1項に記載のウェアラブルシステム。
- 前記ユーザの場所と関連付けられたデータを取得するように構成される、ジオロケーションセンサをさらに備え、前記標的相互作用可能オブジェクトは、天気アプリケーションを備え、前記天気アプリケーションは、
前記ジオロケーションセンサによって取得されたデータに基づいて、前記ユーザの場所を判定することと、
遠隔コンピューティングデバイスと通信し、前記ユーザの場所に基づいて、天気データを取得することと、
前記天気データと関連付けられた仮想要素を生成することと、
前記仮想要素を前記ユーザの3D空間内に重畳することと
を行うようにプログラムされる、請求項13に記載のウェアラブルシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021012808A JP7296995B2 (ja) | 2015-10-20 | 2021-01-29 | 3次元空間内の仮想オブジェクトの選択 |
JP2023097014A JP2023121761A (ja) | 2015-10-20 | 2023-06-13 | 3次元空間内の仮想オブジェクトの選択 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562244115P | 2015-10-20 | 2015-10-20 | |
US62/244,115 | 2015-10-20 | ||
US201662301422P | 2016-02-29 | 2016-02-29 | |
US62/301,422 | 2016-02-29 | ||
US201662316179P | 2016-03-31 | 2016-03-31 | |
US62/316,179 | 2016-03-31 | ||
PCT/US2016/057554 WO2017070121A1 (en) | 2015-10-20 | 2016-10-18 | Selecting virtual objects in a three-dimensional space |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021012808A Division JP7296995B2 (ja) | 2015-10-20 | 2021-01-29 | 3次元空間内の仮想オブジェクトの選択 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018534687A true JP2018534687A (ja) | 2018-11-22 |
JP2018534687A5 JP2018534687A5 (ja) | 2019-10-03 |
JP6831840B2 JP6831840B2 (ja) | 2021-02-17 |
Family
ID=58524174
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018519943A Active JP6831840B2 (ja) | 2015-10-20 | 2016-10-18 | 3次元空間内の仮想オブジェクトの選択 |
JP2021012808A Active JP7296995B2 (ja) | 2015-10-20 | 2021-01-29 | 3次元空間内の仮想オブジェクトの選択 |
JP2023097014A Pending JP2023121761A (ja) | 2015-10-20 | 2023-06-13 | 3次元空間内の仮想オブジェクトの選択 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021012808A Active JP7296995B2 (ja) | 2015-10-20 | 2021-01-29 | 3次元空間内の仮想オブジェクトの選択 |
JP2023097014A Pending JP2023121761A (ja) | 2015-10-20 | 2023-06-13 | 3次元空間内の仮想オブジェクトの選択 |
Country Status (10)
Country | Link |
---|---|
US (5) | US10521025B2 (ja) |
EP (2) | EP3365724B1 (ja) |
JP (3) | JP6831840B2 (ja) |
KR (2) | KR20240028564A (ja) |
CN (2) | CN113220116A (ja) |
AU (2) | AU2016341196B2 (ja) |
CA (1) | CA3002369A1 (ja) |
IL (3) | IL293873B2 (ja) |
NZ (1) | NZ741866A (ja) |
WO (1) | WO2017070121A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021199913A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP2022537614A (ja) * | 2019-06-21 | 2022-08-29 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム |
Families Citing this family (127)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6684559B2 (ja) * | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP6831840B2 (ja) | 2015-10-20 | 2021-02-17 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元空間内の仮想オブジェクトの選択 |
EP3417307A4 (en) * | 2016-02-18 | 2019-09-11 | Edx Technologies, Inc. | SYSTEMS AND METHODS FOR AUGMENTED REALITY DISPLAYS OF NETWORKS |
US10048751B2 (en) | 2016-03-31 | 2018-08-14 | Verizon Patent And Licensing Inc. | Methods and systems for gaze-based control of virtual reality media content |
US10586391B2 (en) * | 2016-05-31 | 2020-03-10 | Accenture Global Solutions Limited | Interactive virtual reality platforms |
WO2018005692A1 (en) | 2016-06-28 | 2018-01-04 | Against Gravity Corp . | Systems and methods for detecting collaborative virtual gestures |
US10514752B2 (en) * | 2016-07-07 | 2019-12-24 | Google Llc | Methods and apparatus to determine objects to present in virtual reality environments |
CA3031771A1 (en) | 2016-07-25 | 2018-02-01 | Magic Leap, Inc. | Imaging modification, display and visualization using augmented and virtual reality eyewear |
US10678397B2 (en) * | 2016-09-26 | 2020-06-09 | Htc Corporation | Method for providing demonstration information in simulation environment, and associated simulation system |
WO2018090056A2 (en) * | 2016-11-14 | 2018-05-17 | Taqtile | Cross-platform multi-modal virtual collaboration and holographic maps |
AU2017362344B2 (en) | 2016-11-16 | 2023-09-28 | Magic Leap, Inc. | Multi-resolution display assembly for head-mounted display systems |
JP6996115B2 (ja) * | 2017-05-29 | 2022-01-17 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
JP2018097141A (ja) * | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | 頭部装着型表示装置、仮想物体表示システム |
JP7096836B2 (ja) | 2017-03-22 | 2022-07-06 | マジック リープ, インコーポレイテッド | ディスプレイシステムのための深度ベース中心窩化レンダリング |
KR102528488B1 (ko) | 2017-03-24 | 2023-05-02 | 매직 립, 인코포레이티드 | 홍채 코드들의 축적 및 신뢰도 할당 |
JP6714280B2 (ja) * | 2017-03-28 | 2020-06-24 | 株式会社ノーニューフォークスタジオ | 情報処理システム、情報処理方法、情報処理プログラム |
IL270002B2 (en) | 2017-04-19 | 2023-11-01 | Magic Leap Inc | Multimodal task execution and text editing for a wearable system |
KR102555443B1 (ko) | 2017-05-01 | 2023-07-12 | 매직 립, 인코포레이티드 | 콘텐츠를 공간 3d 환경에 매칭 |
CN110998566B (zh) | 2017-06-30 | 2024-04-12 | 交互数字Vc控股公司 | 基于眼睛跟踪和生理测量而生成和显示360度视频的方法和装置 |
US20190019011A1 (en) * | 2017-07-16 | 2019-01-17 | Tsunami VR, Inc. | Systems and methods for identifying real objects in an area of interest for use in identifying virtual content a user is authorized to view using an augmented reality device |
CN107396086A (zh) * | 2017-07-28 | 2017-11-24 | 歌尔科技有限公司 | 基于vr头戴设备播放视频的方法及vr头戴设备 |
US20190043241A1 (en) * | 2017-08-03 | 2019-02-07 | Facebook, Inc. | Generating animations on a social-networking system |
US10943399B2 (en) | 2017-08-28 | 2021-03-09 | Microsoft Technology Licensing, Llc | Systems and methods of physics layer prioritization in virtual environments |
US10366291B2 (en) | 2017-09-09 | 2019-07-30 | Google Llc | Systems, methods, and apparatus for providing image shortcuts for an assistant application |
CN109557677A (zh) * | 2017-09-26 | 2019-04-02 | 歌尔科技有限公司 | 显示设备和方法 |
US11861136B1 (en) * | 2017-09-29 | 2024-01-02 | Apple Inc. | Systems, methods, and graphical user interfaces for interacting with virtual reality environments |
CN107678551B (zh) * | 2017-10-19 | 2021-12-28 | 京东方科技集团股份有限公司 | 手势识别方法和装置、电子设备 |
CN107908278B (zh) * | 2017-10-20 | 2020-04-28 | 华为技术有限公司 | 一种虚拟现实vr界面生成的方法和装置 |
US10678333B2 (en) * | 2017-11-14 | 2020-06-09 | Verizon Patent And Licensing Inc. | Methods and systems for presenting haptically perceptible virtual objects |
US10671238B2 (en) * | 2017-11-17 | 2020-06-02 | Adobe Inc. | Position-dependent modification of descriptive content in a virtual reality environment |
AU2018388581A1 (en) | 2017-12-22 | 2020-07-23 | Magic Leap, Inc. | Methods and system for managing and displaying virtual content in a mixed reality system |
CN108319363A (zh) * | 2018-01-09 | 2018-07-24 | 北京小米移动软件有限公司 | 基于vr的产品展示方法、装置及电子设备 |
WO2019143864A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
AU2019209930B2 (en) | 2018-01-17 | 2023-08-03 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
US11114199B2 (en) | 2018-01-25 | 2021-09-07 | Mako Surgical Corp. | Workflow systems and methods for enhancing collaboration between participants in a surgical procedure |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
CA3089646A1 (en) | 2018-02-22 | 2019-08-20 | Magic Leap, Inc. | Browser for mixed reality systems |
EP3756079A4 (en) | 2018-02-22 | 2021-04-28 | Magic Leap, Inc. | OBJECT GENERATION WITH PHYSICAL MANIPULATION |
EP3765943A4 (en) | 2018-03-16 | 2021-12-22 | Magic Leap, Inc. | DEPTH-BASED FOVEA REPRESENTATION FOR DISPLAY SYSTEMS |
US10408972B1 (en) * | 2018-04-20 | 2019-09-10 | Adam Baker | System and method for lightning strike prediction and warning |
WO2019226691A1 (en) | 2018-05-22 | 2019-11-28 | Magic Leap, Inc. | Transmodal input fusion for a wearable system |
JP7136931B2 (ja) | 2018-06-05 | 2022-09-13 | マジック リープ, インコーポレイテッド | 空間3d環境へのコンテンツのマッチング |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
US11243083B2 (en) * | 2018-06-11 | 2022-02-08 | International Business Machines Corporation | Implementing route generation with augmented reality |
US11733824B2 (en) * | 2018-06-22 | 2023-08-22 | Apple Inc. | User interaction interpreter |
US10852853B2 (en) * | 2018-06-28 | 2020-12-01 | Dell Products L.P. | Information handling system touch device with visually interactive region |
US10817077B2 (en) | 2018-06-28 | 2020-10-27 | Dell Products, L.P. | Information handling system touch device context aware input tracking |
US10664101B2 (en) | 2018-06-28 | 2020-05-26 | Dell Products L.P. | Information handling system touch device false touch detection and mitigation |
US10761618B2 (en) | 2018-06-28 | 2020-09-01 | Dell Products L.P. | Information handling system touch device with automatically orienting visual display |
US10795502B2 (en) | 2018-06-28 | 2020-10-06 | Dell Products L.P. | Information handling system touch device with adaptive haptic response |
US10635199B2 (en) | 2018-06-28 | 2020-04-28 | Dell Products L.P. | Information handling system dynamic friction touch device for touchscreen interactions |
US11169601B2 (en) * | 2018-07-12 | 2021-11-09 | Toyota Research Institute, Inc. | Methods and systems for determining teleoperating user intent via eye tracking |
CN111198609A (zh) * | 2018-11-16 | 2020-05-26 | 广东虚拟现实科技有限公司 | 交互显示方法、装置、电子设备及存储介质 |
CN112689869A (zh) | 2018-07-24 | 2021-04-20 | 奇跃公司 | 用于确定显示器与用户的眼睛之间的配准的显示系统和方法 |
US10665206B2 (en) | 2018-07-30 | 2020-05-26 | Honeywell International Inc. | Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance |
CN109144349A (zh) * | 2018-08-07 | 2019-01-04 | 西交利物浦大学 | 一种虚拟、增强或混合现实头显运动方向识别方法及系统 |
CN109407935A (zh) * | 2018-09-14 | 2019-03-01 | 歌尔科技有限公司 | 一种虚拟现实显示控制方法、装置和系统 |
WO2020059277A1 (ja) * | 2018-09-20 | 2020-03-26 | 富士フイルム株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
JP7365355B2 (ja) | 2018-10-09 | 2023-10-19 | 古野電気株式会社 | 映像生成装置及び映像生成方法 |
WO2020081677A2 (en) * | 2018-10-17 | 2020-04-23 | Meta View, Inc. | Systems and methods to provide a mobile computing platform as a physical interface tool for an interactive space |
CN111309142A (zh) | 2018-12-11 | 2020-06-19 | 托比股份公司 | 用于切换显示设备的输入模态的方法和设备 |
KR102174039B1 (ko) * | 2018-12-12 | 2020-11-04 | 한국광기술원 | 증강현실을 이용하여 어디에서도 파일을 편집할 수 있는 장치 및 방법 |
CN109766006B (zh) * | 2019-01-02 | 2021-02-05 | 京东方科技集团股份有限公司 | 虚拟现实场景的显示方法、装置及设备 |
TWI707251B (zh) | 2019-01-03 | 2020-10-11 | 晶翔機電股份有限公司 | 用於依靠一穿戴裝置而與一虛擬實境互動的操作方法及其操作裝置 |
US11320911B2 (en) * | 2019-01-11 | 2022-05-03 | Microsoft Technology Licensing, Llc | Hand motion and orientation-aware buttons and grabbable objects in mixed reality |
EP3948747A4 (en) | 2019-04-03 | 2022-07-20 | Magic Leap, Inc. | MANAGEMENT AND DISPLAY OF WEB PAGES IN A VIRTUAL THREE-DIMENSIONAL SPACE USING A MIXED REALITY SYSTEM |
US10978019B2 (en) | 2019-04-15 | 2021-04-13 | XRSpace CO., LTD. | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
EP3734415A1 (en) * | 2019-04-30 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
EP3734416A1 (en) * | 2019-04-30 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system capable of indicating a tracking unit to track a hand gesture or a hand movement of a user or not, related method and related non-transitory computer readable storage medium |
WO2020236827A1 (en) | 2019-05-20 | 2020-11-26 | Magic Leap, Inc. | Systems and techniques for estimating eye pose |
USD962981S1 (en) | 2019-05-29 | 2022-09-06 | Magic Leap, Inc. | Display screen or portion thereof with animated scrollbar graphical user interface |
CN110164440B (zh) * | 2019-06-03 | 2022-08-09 | 交互未来(北京)科技有限公司 | 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质 |
JP2021005157A (ja) * | 2019-06-25 | 2021-01-14 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
CN110308794A (zh) * | 2019-07-04 | 2019-10-08 | 郑州大学 | 具有两种显示模式的虚拟现实头盔及显示模式的控制方法 |
US20220301217A1 (en) * | 2019-07-05 | 2022-09-22 | Magic Leap, Inc. | Eye tracking latency enhancements |
KR102252110B1 (ko) * | 2019-08-07 | 2021-05-17 | 한국과학기술연구원 | 중첩된 가상 오브젝트의 용이하고 정확한 선택을 지원하는 사용자 인터페이스 장치 및 이의 제어 방법 |
US10943388B1 (en) * | 2019-09-06 | 2021-03-09 | Zspace, Inc. | Intelligent stylus beam and assisted probabilistic input to element mapping in 2D and 3D graphical user interfaces |
US10991163B2 (en) | 2019-09-20 | 2021-04-27 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11170576B2 (en) | 2019-09-20 | 2021-11-09 | Facebook Technologies, Llc | Progressive display of virtual objects |
US11086406B1 (en) | 2019-09-20 | 2021-08-10 | Facebook Technologies, Llc | Three-state gesture virtual controls |
US11176745B2 (en) | 2019-09-20 | 2021-11-16 | Facebook Technologies, Llc | Projection casting in virtual environments |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11493989B2 (en) * | 2019-11-08 | 2022-11-08 | Magic Leap, Inc. | Modes of user interaction |
KR20210063928A (ko) | 2019-11-25 | 2021-06-02 | 삼성전자주식회사 | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11269181B2 (en) | 2019-12-09 | 2022-03-08 | Magic Leap, Inc. | Systems and methods for operating a head-mounted display system based on user identity |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
CN111246014B (zh) * | 2020-01-13 | 2021-04-06 | 维沃移动通信有限公司 | 通话方法、头戴式设备及介质 |
US11354026B1 (en) * | 2020-01-28 | 2022-06-07 | Apple Inc. | Method and device for assigning an operation set |
CN111459288B (zh) * | 2020-04-23 | 2021-08-03 | 捷开通讯(深圳)有限公司 | 一种运用头控实现语音输入的方法和装置 |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
KR20220003254A (ko) * | 2020-07-01 | 2022-01-10 | 삼성전자주식회사 | 증강 현실을 제공하는 전자 장치 및 그 방법 |
JP2023536064A (ja) | 2020-07-23 | 2023-08-23 | マジック リープ, インコーポレイテッド | 交互サンプリングを使用した眼追跡 |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11816759B1 (en) * | 2020-09-24 | 2023-11-14 | Apple Inc. | Split applications in a multi-user communication session |
US11562528B2 (en) | 2020-09-25 | 2023-01-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US20220101002A1 (en) * | 2020-09-30 | 2022-03-31 | Kyndryl, Inc. | Real-world object inclusion in a virtual reality experience |
TWI761976B (zh) * | 2020-09-30 | 2022-04-21 | 幻景啟動股份有限公司 | 互動系統 |
US10989783B1 (en) * | 2020-10-26 | 2021-04-27 | Listen Technologies Corporation | False positive immunity in beacon systems, and related systems, methods, and devices |
EP4244821A1 (en) * | 2020-11-10 | 2023-09-20 | Noderix Teknoloji Sanayi Ticaret Anonim Sirketi | Systems and methods for personalized and interactive extended reality experiences |
US11113893B1 (en) | 2020-11-17 | 2021-09-07 | Facebook Technologies, Llc | Artificial reality environment with glints displayed by an extra reality device |
EP4195005A1 (en) * | 2020-12-17 | 2023-06-14 | Samsung Electronics Co., Ltd. | Electronic device and operation method of electronic device |
US11461973B2 (en) | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
KR20220091141A (ko) * | 2020-12-23 | 2022-06-30 | 삼성전자주식회사 | 센서 어레이를 포함하는 전자 장치 및 그 제어 방법 |
US11954242B2 (en) | 2021-01-04 | 2024-04-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
CN113673292A (zh) * | 2021-01-14 | 2021-11-19 | 南方科技大学 | 一种电容成像传感器及手势形态感知方法 |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11804040B2 (en) * | 2021-03-17 | 2023-10-31 | Qualcomm Incorporated | Keypoint-based sampling for pose estimation |
WO2022220459A1 (en) * | 2021-04-14 | 2022-10-20 | Samsung Electronics Co., Ltd. | Method and electronic device for selective magnification in three dimensional rendering systems |
JP2022163813A (ja) * | 2021-04-15 | 2022-10-27 | キヤノン株式会社 | 装着型の情報端末、その制御方法及びプログラム |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US20230082420A1 (en) * | 2021-09-13 | 2023-03-16 | Qualcomm Incorporated | Display of digital media content on physical surface |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
WO2023075894A1 (en) * | 2021-11-01 | 2023-05-04 | Microsoft Technology Licensing, Llc. | Real-time gestures in shared electronic canvases |
US11893205B2 (en) | 2021-11-01 | 2024-02-06 | Microsoft Technology Licensing, Llc | Real-time gestures in shared electronic canvases |
US20230259199A1 (en) * | 2022-02-15 | 2023-08-17 | Google Llc | Selection of real-world objects using a wearable device |
US20240062484A1 (en) * | 2022-08-16 | 2024-02-22 | Perfect Mobile Corp. | Systems and methods for rendering an augmented reality object with adaptive zoom feature |
US11947862B1 (en) * | 2022-12-30 | 2024-04-02 | Meta Platforms Technologies, Llc | Streaming native application content to artificial reality devices |
US11861030B1 (en) * | 2023-08-17 | 2024-01-02 | Datchat, Inc. | Technology platform for providing secure group-based access to sets of digital assets |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120105486A1 (en) * | 2009-04-09 | 2012-05-03 | Dynavox Systems Llc | Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods |
WO2013028813A1 (en) * | 2011-08-23 | 2013-02-28 | Microsoft Corporation | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
WO2014164901A1 (en) * | 2013-03-11 | 2014-10-09 | Magic Leap, Inc. | System and method for augmented and virtual reality |
JP2015503141A (ja) * | 2011-10-28 | 2015-01-29 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
US20150049018A1 (en) * | 2011-07-14 | 2015-02-19 | Google Inc. | Virtual Window in Head-Mounted Display |
JP2015524110A (ja) * | 2012-06-01 | 2015-08-20 | マイクロソフト コーポレーション | コンテキスト・ユーザー・インターフェース |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US6776480B2 (en) | 2001-07-18 | 2004-08-17 | Sola International Holdings, Ltd. | Spectacle frames for shaped lenses defined by monoformal carrier surfaces |
US6885363B2 (en) | 2002-05-09 | 2005-04-26 | Gateway, Inc. | Pointing device dwell time |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
JP4895352B2 (ja) | 2006-02-07 | 2012-03-14 | 任天堂株式会社 | 対象選択プログラム、対象選択装置、対象選択システム、および対象選択方法 |
US20080211771A1 (en) | 2007-03-02 | 2008-09-04 | Naturalpoint, Inc. | Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment |
US20100265182A1 (en) * | 2009-04-20 | 2010-10-21 | Microsoft Corporation | Context-based state change for an adaptive input device |
US20100325572A1 (en) * | 2009-06-23 | 2010-12-23 | Microsoft Corporation | Multiple mouse character entry |
KR101647722B1 (ko) * | 2009-11-13 | 2016-08-23 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
US8884984B2 (en) * | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
KR101997845B1 (ko) | 2010-12-24 | 2019-10-01 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
CN107656615B (zh) | 2011-05-06 | 2021-09-14 | 奇跃公司 | 大量同时远程数字呈现世界 |
US8942913B2 (en) * | 2011-09-20 | 2015-01-27 | Infosys Limited | System and method for on-road traffic density analytics using video stream mining and statistical techniques |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
US20130104085A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
EP4036862A1 (en) | 2011-11-23 | 2022-08-03 | Magic Leap, Inc. | Three dimensional virtual and augmented reality display system |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
WO2013188464A1 (en) | 2012-06-11 | 2013-12-19 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
KR20150054967A (ko) | 2012-09-11 | 2015-05-20 | 매직 립, 인코포레이티드 | 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템 |
US9310611B2 (en) * | 2012-09-18 | 2016-04-12 | Qualcomm Incorporated | Methods and systems for making the use of head-mounted displays less obvious to non-users |
WO2014113506A1 (en) | 2013-01-15 | 2014-07-24 | Magic Leap, Inc. | Ultra-high resolution scanning fiber display |
WO2014129105A1 (ja) * | 2013-02-22 | 2014-08-28 | ソニー株式会社 | ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ及びヘッドマウントディスプレイ制御プログラム |
KR102271198B1 (ko) | 2013-03-15 | 2021-06-29 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9335547B2 (en) * | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9329682B2 (en) * | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US20140376773A1 (en) * | 2013-06-21 | 2014-12-25 | Leap Motion, Inc. | Tunable operational parameters in motion-capture and touchless interface operation |
US10295338B2 (en) | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
US9437170B1 (en) * | 2013-08-12 | 2016-09-06 | Roberto Quevedo Montesdeoca | Systems and methods for augmented reality display |
EP4321915A3 (en) | 2013-10-16 | 2024-05-01 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
CN107219628B (zh) * | 2013-11-27 | 2020-05-01 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9244539B2 (en) * | 2014-01-07 | 2016-01-26 | Microsoft Technology Licensing, Llc | Target positioning with gaze tracking |
KR102207799B1 (ko) | 2014-01-31 | 2021-01-26 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
CN110376743B (zh) | 2014-01-31 | 2022-03-04 | 奇跃公司 | 多焦点显示系统和方法 |
US10303324B2 (en) * | 2014-02-10 | 2019-05-28 | Samsung Electronics Co., Ltd. | Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
AU2015297035B2 (en) | 2014-05-09 | 2018-06-28 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
KR102193052B1 (ko) | 2014-05-30 | 2020-12-18 | 매직 립, 인코포레이티드 | 가상 또는 증강 현실 장치로 가상 콘텐츠 디스플레이를 생성하기 위한 방법들 및 시스템들 |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US10101803B2 (en) * | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
JP6831840B2 (ja) | 2015-10-20 | 2021-02-17 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元空間内の仮想オブジェクトの選択 |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
-
2016
- 2016-10-18 JP JP2018519943A patent/JP6831840B2/ja active Active
- 2016-10-18 EP EP16858075.1A patent/EP3365724B1/en active Active
- 2016-10-18 WO PCT/US2016/057554 patent/WO2017070121A1/en active Application Filing
- 2016-10-18 KR KR1020247006073A patent/KR20240028564A/ko active Search and Examination
- 2016-10-18 EP EP21165266.4A patent/EP3862852A1/en active Pending
- 2016-10-18 NZ NZ741866A patent/NZ741866A/en unknown
- 2016-10-18 CN CN202110417965.0A patent/CN113220116A/zh active Pending
- 2016-10-18 US US15/296,869 patent/US10521025B2/en active Active
- 2016-10-18 IL IL293873A patent/IL293873B2/en unknown
- 2016-10-18 IL IL258705A patent/IL258705B/en unknown
- 2016-10-18 AU AU2016341196A patent/AU2016341196B2/en active Active
- 2016-10-18 KR KR1020187014283A patent/KR102641655B1/ko active IP Right Grant
- 2016-10-18 IL IL307648A patent/IL307648A/en unknown
- 2016-10-18 CN CN201680074220.6A patent/CN108369345B/zh active Active
- 2016-10-18 CA CA3002369A patent/CA3002369A1/en active Pending
-
2019
- 2019-11-13 US US16/682,794 patent/US11175750B2/en active Active
-
2021
- 2021-01-29 JP JP2021012808A patent/JP7296995B2/ja active Active
- 2021-11-12 US US17/454,793 patent/US11507204B2/en active Active
- 2021-12-09 AU AU2021282503A patent/AU2021282503C1/en not_active Expired - Fee Related
-
2022
- 2022-11-04 US US17/981,311 patent/US11733786B2/en active Active
-
2023
- 2023-06-13 JP JP2023097014A patent/JP2023121761A/ja active Pending
- 2023-07-03 US US18/346,722 patent/US20230350504A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120105486A1 (en) * | 2009-04-09 | 2012-05-03 | Dynavox Systems Llc | Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods |
US20150049018A1 (en) * | 2011-07-14 | 2015-02-19 | Google Inc. | Virtual Window in Head-Mounted Display |
WO2013028813A1 (en) * | 2011-08-23 | 2013-02-28 | Microsoft Corporation | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
JP2015503141A (ja) * | 2011-10-28 | 2015-01-29 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
JP2015524110A (ja) * | 2012-06-01 | 2015-08-20 | マイクロソフト コーポレーション | コンテキスト・ユーザー・インターフェース |
WO2014164901A1 (en) * | 2013-03-11 | 2014-10-09 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US20140306866A1 (en) * | 2013-03-11 | 2014-10-16 | Magic Leap, Inc. | System and method for augmented and virtual reality |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022537614A (ja) * | 2019-06-21 | 2022-08-29 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム |
JP7344974B2 (ja) | 2019-06-21 | 2023-09-14 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム |
US11962930B2 (en) | 2019-06-21 | 2024-04-16 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for controlling a plurality of virtual characters, device, and storage medium |
WO2021199913A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7296995B2 (ja) | 3次元空間内の仮想オブジェクトの選択 | |
JP7209041B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 | |
JP7118007B2 (ja) | 視野周辺の視覚的背光 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190826 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201229 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6831840 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |