JP7436505B2 - 仮想オブジェクトの制御 - Google Patents
仮想オブジェクトの制御 Download PDFInfo
- Publication number
- JP7436505B2 JP7436505B2 JP2021561036A JP2021561036A JP7436505B2 JP 7436505 B2 JP7436505 B2 JP 7436505B2 JP 2021561036 A JP2021561036 A JP 2021561036A JP 2021561036 A JP2021561036 A JP 2021561036A JP 7436505 B2 JP7436505 B2 JP 7436505B2
- Authority
- JP
- Japan
- Prior art keywords
- representation
- location
- virtual object
- display
- usage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 130
- 230000004044 response Effects 0.000 claims description 55
- 230000014509 gene expression Effects 0.000 claims description 26
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 description 142
- 230000003993 interaction Effects 0.000 description 109
- 230000008859 change Effects 0.000 description 47
- 230000002452 interceptive effect Effects 0.000 description 23
- 210000003128 head Anatomy 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 230000001953 sensory effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000036541 health Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 244000025254 Cannabis sativa Species 0.000 description 5
- 238000004883 computer application Methods 0.000 description 5
- 241001310793 Podium Species 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000011449 brick Substances 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013503 de-identification Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000009528 vital sign measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
Description
本出願は、2020年7月29日に出願された「CONTROLLING REPRESENTATIONS OF VIRTUAL OBJECTS IN A COMPUTER-GENERATED REALITY ENVIRONMENT」と題する米国仮特許出願第63/058,217号及び、2019年9月27日に出願された「CONTROLLING REPRESENTATIONS OF VIRTUAL OBJECTS BASED ON USE CONTEXTS OF LOCATIONS IN A COMPUTER-GENERATED REALITY ENVIRONMENT」と題する米国仮特許出願第62/907,216号に基づき優先権を主張する。先述の出願の内容は、その全体が参照により本明細書に組み込まれる。
[項目1]
ウェアラブル電子デバイスのディスプレイを介して、コンピュータ生成現実(CGR)環境内の第1の位置に仮想オブジェクトの第1の表現を表示することであって、前記第1の位置は、複数の使用コンテキストのうち第1の使用コンテキストに対応する、ことと、
前記CGR環境内で前記第1の表現を前記第1の位置と異なる第2の位置に移動するよう求める要求を受信することと、
前記要求を受信したことに応答して、
前記第2の位置が前記複数の使用コンテキストのうち第2の使用コンテキストに対応するとの判断に従って、前記第2の使用コンテキストに基づいて、前記ウェアラブル電子デバイスの前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第2の表現を表示することであって、前記第2の表現は、前記第1の表現と異なる、ことと、
前記第2の位置が前記複数の使用コンテキストのうち第3の使用コンテキストに対応するとの判断に従って、前記第3の使用コンテキストに基づいて、前記ウェアラブル電子デバイスの前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第3の表現を表示することであって、前記第3の表現は、前記第1の表現及び前記第2の表現と異なる、ことと
を含む、方法。
[項目2]
前記複数の使用コンテキストのうち前記第2の使用コンテキストが、電子デバイスの表現における位置に前記第2の位置が対応すると判断された場合に満たされる使用コンテキストを含み、
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断に従って、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内で前記電子デバイスの前記表現の上に2次元表現を表示することを含む、
項目1に記載の方法。
[項目3]
前記複数の使用コンテキストのうち前記第2の使用コンテキストが、垂直平面における位置に前記第2の位置が対応すると判断された場合に満たされる使用コンテキストを含み、
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断に従って、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内で前記垂直平面上に2次元表現を表示することを含む、
項目1~2のいずれか一項に記載の方法。
[項目4]
前記第2の表現のサイズが、前記電子デバイスの前記ディスプレイと前記CGR環境内の前記垂直平面との間の距離に基づく、項目3に記載の方法。
[項目5]
前記複数の使用コンテキストのうち前記第2の使用コンテキストが、前記CGR環境内の水平面における位置に前記第2の位置が対応すると判断された場合に満たされる使用コンテキストを含み、
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断に従って、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内の前記水平面上に3次元表現を表示することを含む、
項目1~4のいずれか一項に記載の方法。
[項目6]
前記水平面が第1のタイプの水平面であるとの判断に従って、前記3次元表現が第1のサイズの表現であり、
前記水平面が第2のタイプの水平面であるとの判断に従って、前記3次元表現が前記第1のサイズと異なる第2のサイズの表現である、
項目1~5のいずれか一項に記載の方法。
[項目7]
前記複数の使用コンテキストのうち前記第2の使用コンテキストが、最大化ビュー基準が満たされた場合に満たされる使用コンテキストを含み、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内の複数の平面上に仮想オブジェクトの複数の表現を表示することを含む、
項目1~6のいずれか一項に記載の方法。
[項目8]
最大化ビューアフォーダンスに対応する選択可能な仮想オブジェクトが表示され、最大化ビュー基準は、最大化ビューアフォーダンスに対応する前記選択可能な仮想オブジェクトが選択された場合に満たされる基準を含む、項目7に記載の方法。
[項目9]
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が第1の視覚的コンテンツを含み、
前記第2の表現が前記第1の視覚的コンテンツを含まない、
項目1~8のいずれか一項に記載の方法。
[項目10]
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が、第3のサイズで表示される第3の視覚的コンテンツを含み、
前記第2の表現が、前記第3のサイズと異なる第4のサイズで表示される前記第3の視覚的コンテンツを含む、
項目1~9のいずれか一項に記載の方法。
[項目11]
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が第1の選択可能オブジェクトを含み、
前記第2の表現が前記第1の選択可能なオブジェクトを含まない、
項目1~10のいずれか一項に記載の方法。
[項目12]
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が第4のサイズであり、
前記第2の表現が前記第4のサイズと異なる第5のサイズである、
項目1~11のいずれか一項に記載の方法。
[項目13]
前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記第1の表現が前記第2の位置から既定の距離内にあるときに、前記第1の表現の表示を前記第2の表現の表示に遷移させることを含む、項目1~12のいずれか一項に記載の方法。
[項目14]
前記第2の位置が、前記複数の使用コンテキストのうち第4の使用コンテキストに対応するとの判断に従って、前記第4の使用コンテキストは、禁止位置に前記第2の位置が対応する場合に満足され、前記第4の使用コンテキストに基づいて、前記CGR環境内で前記仮想オブジェクトの表現の表示を取りやめること、
を更に含む、項目1~13のいずれか一項に記載の方法。
[項目15]
前記第2の位置が前記複数の使用コンテキストのうち前記第4の使用コンテキストに対応するとの前記判断に従って、前記CGR環境内に、前記第2の位置が禁止位置であることを示す指示子を表示すること、
を更に含む、項目14に記載の方法。
[項目16]
ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備えるシステムであって、前記1つ以上のプログラムが、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境内の第1の位置に仮想オブジェクトの第1の表現を表示し、前記第1の位置は、複数の使用コンテキストのうち第1の使用コンテキストに対応し、
前記CGR環境内で前記第1の表現を前記第1の位置と異なる第2の位置に移動するよう求める要求を受信し、
前記要求を受信したことに応答して、
前記第2の位置が前記複数の使用コンテキストのうち第2の使用コンテキストに対応するとの判断に従って、前記第2のコンテキストに基づいて、前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第2の表現を表示し、前記第2の表現は、前記第1の表現と異なり、
前記第2の位置が前記複数の使用コンテキストのうち第3の使用コンテキストに対応するとの判断に従って、前記第3の使用コンテキストに基づいて、前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第3の表現を表示し、前記第3の表現は、前記第1の表現及び前記第2の表現と異なる、
命令を含む、システム。
[項目17]
ディスプレイを有するシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境内の第1の位置に仮想オブジェクトの第1の表現を表示し、前記第1の位置は、複数の使用コンテキストのうち第1の使用コンテキストに対応し、
前記CGR環境内で前記第1の表現を前記第1の位置と異なる第2の位置に移動するよう求める要求を受信し、
前記要求を受信したことに応答して、
前記第2の位置が前記複数の使用コンテキストのうち第2の使用コンテキストに対応するとの判断に従って、前記第2のコンテキストに基づいて、前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第2の表現を表示し、前記第2の表現は、前記第1の表現と異なり、
前記第2の位置が前記複数の使用コンテキストのうち第3の使用コンテキストに対応するとの判断に従って、前記第3の使用コンテキストに基づいて、前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第3の表現を表示し、前記第3の表現は、前記第1の表現及び前記第2の表現と異なる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目18]
ディスプレイと、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境内の第1の位置に仮想オブジェクトの第1の表現を表示する手段であって、前記第1の位置は、複数の使用コンテキストのうち第1の使用コンテキストに対応する、手段と、
前記CGR環境内で前記第1の表現を前記第1の位置と異なる第2の位置に移動するよう求める要求を受信する手段と、
前記要求を受信したことに応じて、
前記第2の位置が前記複数の使用コンテキストのうち第2の使用コンテキストに対応するとの判断に従って、前記第2のコンテキストに基づいて、前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第2の表現を表示し、前記第2の表現は、前記第1の表現と異なり、
前記第2の位置が前記複数の使用コンテキストのうち第3の使用コンテキストに対応するとの判断に従って、前記第3の使用コンテキストに基づいて、前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第3の表現を表示し、前記第3の表現は、前記第1の表現及び前記第2の表現と異なる、手段と、
を備えるシステム。
[項目19]
ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、項目1~15のいずれか一項に記載の方法を行う命令を含む、
システム。
[項目20]
ディスプレイを含むウェアラブル電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する、非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目1~15のいずれか一項に記載の方法を行う命令を含む、非一時的コンピュータ可読記憶媒体。
[項目21]
ディスプレイと、
項目1~15のいずれか一項に記載の方法を行う手段と、
を備える、システム。
[項目22]
ウェアラブル電子デバイスのディスプレイを介して、コンピュータ生成現実(CGR)環境の第1の位置に仮想オブジェクトの2次元(2D)表現を表示することと、
前記仮想オブジェクトの3次元(3D)表現を前記2D表現と同時に表示するよう求める要求を受信することと、
前記要求に応答して、前記ウェアラブル電子デバイスの前記ディスプレイを介して、前記CGR環境の前記第1の位置に前記2D表現、及び第2の位置に前記3D表現を同時に表示することであって、前記第2の位置は、前記第1の位置と異なる、ことと、
を含む、方法。
[項目23]
前記同時に表示するよう求める要求を受信することが、前記仮想オブジェクトの前記2D表現を前記第1の位置から前記CGR環境の前記第2の位置にドラッグするよう求める要求を受信することを含む、項目22に記載の方法。
[項目24]
前記同時に表示するよう求める要求が、前記仮想オブジェクトの前記2D表現と共に表示される相互作用型要素の選択内容を含む、項目22~23のいずれか一項に記載の方法。
[項目25]
前記CGR環境の前記第1の位置に前記2D表現、及び第2の位置に前記3D表現を同時に表示することが、前記3D表現を前記2D表現から飛び出しているようにアニメーション化することを含む、項目22~24のいずれか一項に記載の方法。
[項目26]
前記2D表現を変更するよう求める第1の要求を受信したことに応答して、
前記2D表現を変更するよう求める前記第1の要求に対応する変更に従って前記3D表現を変更することと、
前記3D表現を変更するよう求める第1の要求を受信したことに応答して、
前記3D表現を変更するよう求める前記第1の要求に対応する変更に従って前記2D表現を変更することと、
を更に含む、項目22~25のいずれか一項に記載の方法。
[項目27]
前記2D表現を変更するよう求める第2の要求を受信したことに応答して、
前記2D表現を変更するよう求める前記第2の要求に対応する変更に従って前記3D表現を変更することを取りやめることと、
前記3D表現を変更するよう求める第2の要求を受信したことに応答して、
前記3D表現を変更するよう求める前記第2の要求に対応する変更に従って前記2D表現を変更することを取りやめることと、
を更に含む、項目26に記載の方法。
[項目28]
前記仮想オブジェクトの前記2D表現が、少なくとも1つの相互作用型ユーザインタフェース(UI)要素を含む、項目22~27のいずれか一項に記載の方法。
[項目29]
前記2D表現の前記少なくとも1つの相互作用型UI要素が、前記仮想オブジェクトの前記3D表現に含まれない、項目28に記載の方法。
[項目30]
ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備えるシステムであって、前記1つ以上のプログラムが、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境の第1の位置に仮想オブジェクトの2次元(2D)表現を表示し、
前記仮想オブジェクトの3次元(3D)表現を前記2D表現と同時に表示するよう求める要求を受信し、
前記要求に応答して、前記ディスプレイを介して、前記CGR環境の前記第1の位置に前記2D表現、及び第2の位置に前記3D表現を同時に表示し、前記第2の位置は、前記第1の位置と異なる、
命令を含む、システム。
[項目31]
ディスプレイを備えるシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境の第1の位置に仮想オブジェクトの2次元(2D)表現を表示し、
前記仮想オブジェクトの3次元(3D)表現を前記2D表現と同時に表示するよう求める要求を受信し、
前記要求に応答して、前記ディスプレイを介して、前記CGR環境の前記第1の位置に前記2D表現、及び第2の位置に前記3D表現を同時に表示し、前記第2の位置は、前記第1の位置と異なる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目32]
ディスプレイと、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境の第1の位置に仮想オブジェクトの2次元(2D)表現を表示する手段と、
前記仮想オブジェクトの3次元(3D)表現を前記2D表現と同時に表示する要求を受信する手段と、
前記要求に応答して、前記ディスプレイを介して、前記CGR環境の前記第1の位置に前記2D表現、及び第2の位置に前記3D表現を同時に表示する手段であって、前記第2の位置は、前記第1の位置と異なる、手段と、
を備える、システム。
[項目33]
ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと
を備え、前記1つ以上のプログラムが、項目22~29のいずれか一項に記載の方法を行う命令を含む、
システム。
[項目34]
ディスプレイを含むウェアラブル電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する、非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目22~29のいずれか一項に記載の方法を行う命令を含む、非一時的コンピュータ可読記憶媒体。
[項目35]
ディスプレイと、
項目22~29のいずれか一項に記載の方法を行う手段と、
を備える、システム。
[項目36]
ウェアラブル電子デバイスのディスプレイを介して、コンピュータ生成現実(CGR)環境内に仮想オブジェクトの第1の表現を表示することと、
入力機構の検出された動きに応答して、
前記入力機構の現在の位置が前記仮想オブジェクトの前記第1の表現から既定の距離内にあるとの判断に従って、前記ウェアラブル電子デバイスの前記ディスプレイを介して、前記CGR環境内で、前記仮想オブジェクトの第2の表現を表示することであって、前記第2の表現は、前記第1の表現と異なる、ことと、
前記入力機構の前記現在の位置が前記仮想オブジェクトの前記第1の表現から前記既定の距離内にないとの判断に従って、前記第2の表現を表示することなく前記第1の表現の表示を維持することと、
を含む、方法。
[項目37]
前記入力機構の前記検出された動きが、少なくとも部分的に画像センサによって検出される、項目36に記載の方法。
[項目38]
前記入力機構が、前記ウェアラブル電子デバイスのユーザの外肢と、前記ユーザの視線と、前記電子デバイスと異なる入力デバイスで受信された入力と、のうちの少なくとも1つを含む、項目36~37のいずれか一項に記載の方法。
[項目39]
前記入力機構が、前記CGR環境内の前記仮想オブジェクトの前記第1の表現の位置に基づいて判断される、項目38に記載の方法。
[項目40]
前記仮想オブジェクトの前記第2の表現を表示することが、前記第2の表現の少なくとも1つの相互作用型ユーザインタフェース(UI)要素を表示することを含む、項目36~39のいずれか一項に記載の方法。
[項目41]
前記少なくとも1つの相互作用型UI要素が、直接相互作用のために構成されている、項目40に記載の方法。
[項目42]
直接相互作用のために構成された前記少なくとも1つの相互作用型UI要素が、前記第1の表現の少なくとも1つのUI要素に対応し、前記第1の表現の前記少なくとも1つのUI要素が、非直接相互作用のために構成されている、項目41に記載の方法。
[項目43]
前記第2の表現の前記少なくとも1つの相互作用型UI要素が、前記第1の表現の少なくとも1つのUI要素に対応し、前記第2の表現の前記少なくとも1つの相互作用型UI要素のサイズが、前記第1の表現の前記対応する少なくとも1つのUI要素のサイズと異なる、項目40~42のいずれか一項に記載の方法。
[項目44]
前記第2の表現の前記少なくとも1つの相互作用型UI要素が、前記第1の表現の少なくとも1つのUI要素に対応し、前記第1の表現の前記少なくとも1つのUI要素が、前記第1の表現内で3次元要素として表示され、前記第2の表現の前記少なくとも1つの相互作用型UI要素が、前記対応する3次元要素の2次元表現として表示される、項目40~43のいずれか一項に記載の方法。
[項目45]
前記第2の表現の前記少なくとも1つの相互作用型UI要素が、前記第1の表現内に表示されていない少なくとも1つのUI要素に対応する、項目40~44のいずれか一項に記載の方法。
[項目46]
前記仮想オブジェクトの前記第2の表現のサイズが、前記仮想オブジェクトの前記第1の表現のサイズと異なる、項目36~45のいずれか一項に記載の方法。
[項目47]
前記仮想オブジェクトの前記第2の表現を表示することが、前記第1の表現が表示される位置と異なる前記位置に前記第2の表現を表示することを含む、項目36~46のいずれか一項に記載の方法。
[項目48]
前記第2の表現が表示される前記位置が、前記第1の表現が表示される位置よりも前記ウェアラブル電子デバイスのユーザに近い前記位置である、項目47に記載の方法。
[項目49]
前記第1の表現が前記仮想オブジェクトの3次元(3D)表現であり、前記第2の表現が前記仮想オブジェクトの2次元(2D)表現である、項目36~48のいずれか一項に記載の方法。
[項目50]
前記仮想オブジェクトの前記第2の表現を前記CGR環境内に表示することが、前記第2の表現と前記第1の表現との間の少なくとも1つの差異をアニメーション化することを含む、項目36~49のいずれか一項に記載の方法。
[項目51]
前記第2の表現と前記第1の表現との間の前記少なくとも1つの差異をアニメーション化することが、前記少なくとも1つの差異に関連付けられた少なくとも1つの音を再生することを含む、項目50に記載の方法。
[項目52]
ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備えるシステムであって、前記1つ以上のプログラムが、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境内に仮想オブジェクトの第1の表現を表示し、
入力機構の検出された動きに応答して、
前記入力機構の現在の位置が前記仮想オブジェクトの前記第1の表現から既定の距離内にあると判断に従って、前記ディスプレイを介して、前記CGR環境内で、前記仮想オブジェクトの第2の表現を表示し、前記第2の表現は、前記第1の表現と異なり、
前記入力機構の前記現在の位置が前記仮想オブジェクトの前記第1の表現から前記既定の距離内にないとの判断に従って、前記第2の表現を表示することなく前記第1の表現の表示を維持する、
命令を含む、システム。
[項目53]
ディスプレイを有するシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境内に仮想オブジェクトの第1の表現を表示し、
入力機構の検出された動きに応答して、
前記入力機構の現在の位置が前記仮想オブジェクトの前記第1の表現から既定の距離内にあるとの判断に従って、前記ディスプレイを介して、前記CGR環境内で、前記仮想オブジェクトの第2の表現を表示し、前記第2の表現は、前記第1の表現と異なり、
前記入力機構の前記現在の位置が前記仮想オブジェクトの前記第1の表現から前記既定の距離内にないとの判断に従って、前記第2の表現を表示することなく前記第1の表現の表示を維持する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目54]
ディスプレイと、
前記ディスプレイを介して、コンピュータ生成現実(CGR)環境内に仮想オブジェクトの第1の表現を表示する手段と、
入力機構の検出された動きに応答して、
前記入力機構の現在の位置が前記仮想オブジェクトの前記第1の表現から既定の距離内にあるとの判断に従って、前記ディスプレイを介して、前記CGR環境内で、前記仮想オブジェクトの第2の表現を表示し、前記第2の表現は、前記第1の表現と異なり、
前記入力機構の前記現在の位置が前記仮想オブジェクトの前記第1の表現から前記既定の距離内にないとの判断に従って、前記第2の表現を表示することなく前記第1の表現の表示を維持する、手段と、
を備える、システム。
[項目55]
ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムが、項目36~51のいずれか一項に記載の方法を行う命令を含む、
システム。
[項目56]
ディスプレイを含むウェアラブル電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する、非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目36~51のいずれか一項に記載の方法を行う命令を含む、非一時的コンピュータ可読記憶媒体。
[項目57]
ディスプレイと、
項目36~51のいずれか一項に記載の方法を行う手段と、
を備える、システム。
Claims (18)
- ウェアラブル電子デバイスのディスプレイを介して、コンピュータ生成現実(CGR)環境内の第1の位置に仮想オブジェクトの第1の表現を表示することであって、前記第1の位置は、複数の使用コンテキストのうち第1の使用コンテキストに対応する、ことと、
前記CGR環境内で前記第1の表現を前記第1の位置と異なる第2の位置に移動するよう求める要求を受信することであって、前記第2の位置は、平面上の位置に対応する、ことと、
前記要求を受信したことに応答して、
前記第2の位置が前記複数の使用コンテキストのうち第2の使用コンテキストに対応するとの判断に従って、前記第2の使用コンテキストに基づいて、前記ウェアラブル電子デバイスの前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第2の表現を表示することであって、前記第2の表現は、前記第1の表現と異なり、前記第2の表現は、2次元表現である、ことと、
前記第2の位置が前記複数の使用コンテキストのうち第3の使用コンテキストに対応するとの判断に従って、前記第3の使用コンテキストに基づいて、前記ウェアラブル電子デバイスの前記ディスプレイを介して、前記第2の位置に、前記仮想オブジェクトの第3の表現を表示することであって、前記第3の表現は、前記第1の表現及び前記第2の表現と異なり、前記第3の表現は、3次元表現である、ことと
を含む、方法。 - 前記複数の使用コンテキストのうち前記第2の使用コンテキストが、電子デバイスの表現における位置に前記第2の位置が対応すると判断された場合に満たされる使用コンテキストを含み、
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断に従って、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内で前記電子デバイスの前記表現の上に前記仮想オブジェクトの前記2次元表現を表示することを含む、
請求項1に記載の方法。 - 前記複数の使用コンテキストのうち前記第2の使用コンテキストが、垂直平面における位置に前記第2の位置が対応すると判断された場合に満たされる使用コンテキストを含み、
前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断に従って、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内で前記垂直平面上に前記仮想オブジェクトの前記2次元表現を表示することを含む、
請求項1~2のいずれか一項に記載の方法。 - 前記第2の表現のサイズが、前記電子デバイスの前記ディスプレイと前記CGR環境内の前記垂直平面との間の距離に基づく、請求項3に記載の方法。
- 前記複数の使用コンテキストのうち前記第3の使用コンテキストが、前記CGR環境内の水平面における位置に前記第2の位置が対応すると判断された場合に満たされる使用コンテキストを含み、
前記第2の位置が前記複数の使用コンテキストのうち前記第3の使用コンテキストに対応するとの前記判断に従って、前記第3の使用コンテキストに基づいて前記仮想オブジェクトの前記第3の表現を表示することが、前記CGR環境内の前記水平面上に前記仮想オブジェクトの前記3次元表現を表示することを含む、
請求項1~4のいずれか一項に記載の方法。 - 前記水平面が第1のタイプの水平面であるとの判断に従って、前記3次元表現が第1のサイズの表現であり、
前記水平面が第2のタイプの水平面であるとの判断に従って、前記3次元表現が前記第1のサイズと異なる第2のサイズの表現である、
請求項5に記載の方法。 - 前記複数の使用コンテキストのうち前記第2の使用コンテキストが、最大化ビュー基準が満たされた場合に満たされる使用コンテキストを含み、前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記CGR環境内の複数の平面上に仮想オブジェクトの複数の表現を表示することを含む、
請求項1~6のいずれか一項に記載の方法。 - 最大化ビューアフォーダンスに対応する選択可能な仮想オブジェクトが表示され、最大化ビュー基準は、最大化ビューアフォーダンスに対応する前記選択可能な仮想オブジェクトが選択された場合に満たされる基準を含む、請求項7に記載の方法。
- 前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が第1の視覚的コンテンツを含み、
前記第2の表現が前記第1の視覚的コンテンツを含まない、
請求項1~8のいずれか一項に記載の方法。 - 前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が、第3のサイズで表示される第3の視覚的コンテンツを含み、
前記第2の表現が、前記第3のサイズと異なる第4のサイズで表示される前記第3の視覚的コンテンツを含む、
請求項1~9のいずれか一項に記載の方法。 - 前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が第1の選択可能オブジェクトを含み、
前記第2の表現が前記第1の選択可能なオブジェクトを含まない、
請求項1~10のいずれか一項に記載の方法。 - 前記第2の位置が前記複数の使用コンテキストのうち前記第2の使用コンテキストに対応するとの前記判断が行われ、
前記第1の表現が第4のサイズであり、
前記第2の表現が前記第4のサイズと異なる第5のサイズである、
請求項1~11のいずれか一項に記載の方法。 - 前記第2の使用コンテキストに基づいて前記仮想オブジェクトの前記第2の表現を表示することが、前記第1の表現が前記第2の位置から既定の距離内にあるときに、前記第1の表現の表示を前記第2の表現の表示に遷移させることを含む、請求項1~12のいずれか一項に記載の方法。
- 前記第2の位置が、前記複数の使用コンテキストのうち第4の使用コンテキストに対応するとの判断に従って、前記第4の使用コンテキストは、禁止位置に前記第2の位置が対応する場合に満足され、前記第4の使用コンテキストに基づいて、前記CGR環境内で前記仮想オブジェクトの表現の表示を取りやめること、
を更に含む、請求項1~13のいずれか一項に記載の方法。 - 前記第2の位置が前記複数の使用コンテキストのうち前記第4の使用コンテキストに対応するとの前記判断に従って、前記CGR環境内に、前記第2の位置が禁止位置であることを示す指示子を表示すること、
を更に含む、請求項14に記載の方法。 - コンピュータに、請求項1~15のいずれか一項に記載の前記方法を実行させる、
コンピュータプログラム。 - 請求項16に記載の前記コンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行可能な1以上のプロセッサと、
を含む、システム。 - 請求項1~15のいずれか一項に記載の前記方法を実行する手段を備えた、
システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962907216P | 2019-09-27 | 2019-09-27 | |
US62/907,216 | 2019-09-27 | ||
US202063058217P | 2020-07-29 | 2020-07-29 | |
US63/058,217 | 2020-07-29 | ||
PCT/US2020/048833 WO2021061349A1 (en) | 2019-09-27 | 2020-08-31 | Controlling representations of virtual objects in a computer-generated reality environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022533811A JP2022533811A (ja) | 2022-07-26 |
JP7436505B2 true JP7436505B2 (ja) | 2024-02-21 |
Family
ID=72521714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021561036A Active JP7436505B2 (ja) | 2019-09-27 | 2020-08-31 | 仮想オブジェクトの制御 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11861056B2 (ja) |
EP (1) | EP3928190A1 (ja) |
JP (1) | JP7436505B2 (ja) |
KR (1) | KR102684612B1 (ja) |
CN (1) | CN113785260A (ja) |
WO (1) | WO2021061349A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
CN115836271A (zh) * | 2020-07-14 | 2023-03-21 | 苹果公司 | 生成用于工作空间的建议内容 |
CN116507997A (zh) * | 2020-09-11 | 2023-07-28 | 苹果公司 | 在环境中显示用户界面的方法及对应电子设备和计算机可读存储介质 |
US11908088B2 (en) * | 2021-06-09 | 2024-02-20 | Red Hat, Inc. | Controlling virtual resources from within an augmented reality environment |
CN118020045A (zh) * | 2021-08-27 | 2024-05-10 | 苹果公司 | 电子设备的增强表示的系统和方法 |
US20240153215A1 (en) * | 2022-11-08 | 2024-05-09 | International Business Machines Corporation | Iterative virtual reality modeling amelioration for three-dimensional to-be-printed objects and virtual reality filament sections |
WO2024128843A1 (ko) * | 2022-12-16 | 2024-06-20 | 삼성전자주식회사 | 사용자의 신체 정보에 기반하여 형성된 영역을 이용하여 어플리케이션을 나타내는 시각적 객체를 표시하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016203792A (ja) | 2015-04-22 | 2016-12-08 | 株式会社デンソー | 電源装置 |
US20170371432A1 (en) | 2016-06-24 | 2017-12-28 | Anatolie Gavriliuc | Integrated free space and surface input device |
WO2018038136A1 (ja) | 2016-08-24 | 2018-03-01 | ナーブ株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
US20180307303A1 (en) | 2017-04-19 | 2018-10-25 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
US20180315248A1 (en) | 2017-05-01 | 2018-11-01 | Magic Leap, Inc. | Matching content to a spatial 3d environment |
WO2019067482A1 (en) | 2017-09-29 | 2019-04-04 | Zermatt Technologies Llc | DISPLAYING APPLICATIONS IN A SIMULATED REALITY ENVIRONMENT ENVIRONMENT |
WO2019069575A1 (ja) | 2017-10-05 | 2019-04-11 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020042802A (ja) | 2018-09-11 | 2020-03-19 | アップル インコーポレイテッドApple Inc. | 3次元コンテンツ内の場所に基づく仮想要素モダリティ |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3251639B2 (ja) * | 1992-06-08 | 2002-01-28 | 株式会社東芝 | ポインティング装置 |
US5861867A (en) | 1992-06-08 | 1999-01-19 | Kabushiki Kaisha Toshiba | Pointing apparatus |
US6335765B1 (en) * | 1999-11-08 | 2002-01-01 | Weather Central, Inc. | Virtual presentation system and method |
US6567085B1 (en) * | 1999-12-22 | 2003-05-20 | Lucent Technologies Inc. | Display techniques for three-dimensional virtual reality |
WO2010141678A1 (en) * | 2009-06-05 | 2010-12-09 | Dassault Systemes Solidworks Corporation | Predictive target enlargement |
US20130249948A1 (en) | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Providing interactive travel content at a display device |
US9530232B2 (en) * | 2012-09-04 | 2016-12-27 | Qualcomm Incorporated | Augmented reality surface segmentation |
US9443354B2 (en) * | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
DE102014009298A1 (de) * | 2014-06-26 | 2015-12-31 | Audi Ag | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
US20170139556A1 (en) * | 2014-10-01 | 2017-05-18 | Quantum Interface, Llc | Apparatuses, systems, and methods for vehicle interfaces |
US10176641B2 (en) * | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10469976B2 (en) * | 2016-05-11 | 2019-11-05 | Htc Corporation | Wearable electronic device and virtual reality system |
US11328484B2 (en) * | 2016-05-20 | 2022-05-10 | Magic Leap, Inc. | Contextual awareness of user interface menus |
JP2018101019A (ja) * | 2016-12-19 | 2018-06-28 | セイコーエプソン株式会社 | 表示装置及び表示装置の制御方法 |
US10290152B2 (en) * | 2017-04-03 | 2019-05-14 | Microsoft Technology Licensing, Llc | Virtual object user interface display |
KR20220100102A (ko) | 2017-09-29 | 2022-07-14 | 애플 인크. | 시선-기반 사용자 상호작용 |
CN108434739B (zh) * | 2018-01-30 | 2019-03-19 | 网易(杭州)网络有限公司 | 游戏场景中虚拟资源的处理方法及装置 |
US10504290B2 (en) * | 2018-05-04 | 2019-12-10 | Facebook Technologies, Llc | User interface security in a virtual reality environment |
US11494990B2 (en) * | 2018-10-08 | 2022-11-08 | Google Llc | Hybrid placement of objects in an augmented reality environment |
CN111399714A (zh) | 2019-05-31 | 2020-07-10 | 苹果公司 | 用户活动快捷方式建议 |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
-
2020
- 2020-08-31 KR KR1020217032913A patent/KR102684612B1/ko active IP Right Grant
- 2020-08-31 CN CN202080027747.XA patent/CN113785260A/zh active Pending
- 2020-08-31 WO PCT/US2020/048833 patent/WO2021061349A1/en unknown
- 2020-08-31 JP JP2021561036A patent/JP7436505B2/ja active Active
- 2020-08-31 EP EP20772478.2A patent/EP3928190A1/en active Pending
-
2021
- 2021-08-06 US US17/396,441 patent/US11861056B2/en active Active
-
2023
- 2023-12-27 US US18/397,823 patent/US20240126362A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016203792A (ja) | 2015-04-22 | 2016-12-08 | 株式会社デンソー | 電源装置 |
US20170371432A1 (en) | 2016-06-24 | 2017-12-28 | Anatolie Gavriliuc | Integrated free space and surface input device |
WO2018038136A1 (ja) | 2016-08-24 | 2018-03-01 | ナーブ株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
US20180307303A1 (en) | 2017-04-19 | 2018-10-25 | Magic Leap, Inc. | Multimodal task execution and text editing for a wearable system |
US20180315248A1 (en) | 2017-05-01 | 2018-11-01 | Magic Leap, Inc. | Matching content to a spatial 3d environment |
WO2019067482A1 (en) | 2017-09-29 | 2019-04-04 | Zermatt Technologies Llc | DISPLAYING APPLICATIONS IN A SIMULATED REALITY ENVIRONMENT ENVIRONMENT |
WO2019069575A1 (ja) | 2017-10-05 | 2019-04-11 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020042802A (ja) | 2018-09-11 | 2020-03-19 | アップル インコーポレイテッドApple Inc. | 3次元コンテンツ内の場所に基づく仮想要素モダリティ |
Also Published As
Publication number | Publication date |
---|---|
US20210365108A1 (en) | 2021-11-25 |
WO2021061349A1 (en) | 2021-04-01 |
EP3928190A1 (en) | 2021-12-29 |
JP2022533811A (ja) | 2022-07-26 |
US20240126362A1 (en) | 2024-04-18 |
CN113785260A (zh) | 2021-12-10 |
US11861056B2 (en) | 2024-01-02 |
KR102684612B1 (ko) | 2024-07-15 |
KR20210136116A (ko) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7436505B2 (ja) | 仮想オブジェクトの制御 | |
KR102596341B1 (ko) | 환경에서 객체들을 조작하기 위한 방법들 | |
EP3928192B1 (en) | Wearable electronic device presenting a computer-generated reality environment | |
US11995230B2 (en) | Methods for presenting and sharing content in an environment | |
US20230384907A1 (en) | Methods for relative manipulation of a three-dimensional environment | |
US20230350539A1 (en) | Representations of messages in a three-dimensional environment | |
US20230092282A1 (en) | Methods for moving objects in a three-dimensional environment | |
US20230106627A1 (en) | Devices, Methods, And Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
JP2022526182A (ja) | 追加のディスプレイを有するデバイスの管理 | |
US20230343049A1 (en) | Obstructed objects in a three-dimensional environment | |
US20230334808A1 (en) | Methods for displaying, selecting and moving objects and containers in an environment | |
US20230206572A1 (en) | Methods for sharing content and interacting with physical devices in a three-dimensional environment | |
US12131429B2 (en) | Devices, methods, and graphical user interfaces for displaying a representation of a user in an extended reality environment | |
US20230103161A1 (en) | Devices, methods, and graphical user interfaces for tracking mitigation in three-dimensional environments | |
EP4453695A1 (en) | Methods for sharing content and interacting with physical devices in a three-dimensional environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211014 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230301 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7436505 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |