JP2020531985A - 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース - Google Patents
拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース Download PDFInfo
- Publication number
- JP2020531985A JP2020531985A JP2020509514A JP2020509514A JP2020531985A JP 2020531985 A JP2020531985 A JP 2020531985A JP 2020509514 A JP2020509514 A JP 2020509514A JP 2020509514 A JP2020509514 A JP 2020509514A JP 2020531985 A JP2020531985 A JP 2020531985A
- Authority
- JP
- Japan
- Prior art keywords
- user interface
- computer system
- environment
- interface object
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 671
- 238000000034 method Methods 0.000 title claims description 383
- 230000033001 locomotion Effects 0.000 claims abstract description 540
- 230000004044 response Effects 0.000 claims description 288
- 230000008859 change Effects 0.000 claims description 275
- 230000007704 transition Effects 0.000 claims description 118
- 230000000007 visual effect Effects 0.000 claims description 110
- 238000003780 insertion Methods 0.000 claims description 83
- 230000037431 insertion Effects 0.000 claims description 83
- 238000001514 detection method Methods 0.000 claims description 79
- 230000003993 interaction Effects 0.000 claims description 75
- 230000009471 action Effects 0.000 claims description 60
- 238000003860 storage Methods 0.000 claims description 41
- 230000010365 information processing Effects 0.000 claims description 33
- 238000010191 image analysis Methods 0.000 claims description 8
- 238000004088 simulation Methods 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 6
- 239000003550 marker Substances 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 230000000087 stabilizing effect Effects 0.000 claims 2
- 230000008569 process Effects 0.000 description 63
- 238000010586 diagram Methods 0.000 description 52
- 238000004891 communication Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 27
- 230000003287 optical effect Effects 0.000 description 21
- 230000001976 improved effect Effects 0.000 description 19
- 230000002093 peripheral effect Effects 0.000 description 19
- 238000003825 pressing Methods 0.000 description 19
- 241000699666 Mus <mouse, genus> Species 0.000 description 16
- 230000036544 posture Effects 0.000 description 15
- 238000012549 training Methods 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 8
- 230000002829 reductive effect Effects 0.000 description 8
- 238000012384 transportation and delivery Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 7
- 230000001960 triggered effect Effects 0.000 description 7
- 230000035807 sensation Effects 0.000 description 6
- 230000000153 supplemental effect Effects 0.000 description 6
- 241000699670 Mus sp. Species 0.000 description 5
- 241001422033 Thestylus Species 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000021317 sensory perception Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000004513 sizing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 235000019577 caloric intake Nutrition 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
Description
例示的なデバイス
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダモジュール148、
●気象ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●任意選択的にビデオプレーヤモジュール及び音楽プレーヤモジュールから構成されている、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●マップモジュール154、及び/又は
●オンラインビデオモジュール155。
●入力デバイス(単数又は複数)(302及び/又は307、例えば、タッチ感知式リモートコントロールなどのタッチ感知面、若しくは表示生成コンポーネントとしても機能するタッチスクリーンディスプレイ、マウス、ジョイスティック、ワンドコントローラ、及び/又はユーザの手などのユーザの1つ以上の特徴の位置を追跡するカメラ)、
●仮想/拡張現実論理303(例えば、仮想/拡張現実モジュール145)、
●仮想ユーザインタフェース要素をユーザに表示するための表示生成コンポーネント(単数又は複数)(304及び/又は308、例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイなど)、
●デバイスの視野の画像、例えば、仮想ユーザインタフェース要素の配置を判定し、デバイスの姿勢を判定し、及び/又はカメラ(単数又は複数)が位置する物理的環境の一部分を表示するために使用される画像をキャプチャするためのカメラ(単数又は複数)(例えば、305及び/又は311)、
●物理的環境に対するデバイスの姿勢及び/又はデバイスの姿勢の変化を判定するための姿勢センサ(単数又は複数)(例えば、306及び/又は311)。
●セルラー信号及びWi−Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)、
●時間、
●Bluetooth(登録商標)インジケータ、
●バッテリ状態インジケータ、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408、
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、また、
○「音楽」とラベル付けされたビデオ及び音楽プレーヤモジュール152のアイコン422、また、
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149−2のアイコン434、
○「マップ」とラベル付けされた、マップモジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149−1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149−4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、また、
○デバイス100及びその様々なアプリケーション136に対する設定へのアクセスを提供する「設定」のラベル付きの設定アプリケーション又はモジュールのためのアイコン446。
ユーザインタフェース及び関連するプロセス
Claims (177)
- 表示生成コンポーネントと、1つ以上のカメラと、入力デバイスとを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、拡張現実環境を表示することであって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、ことと、
前記拡張現実環境を表示している間に、前記対応する仮想ユーザインタフェースオブジェクトに対応する位置での入力を検出することと、
前記入力を検出し続けている間に、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の移動を検出することと、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の前記移動を検出したことに応じて、前記対応する物理的オブジェクトに対する前記入力の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整することと、
を含む、方法。 - 前記対応する物理的オブジェクトに対する前記入力の移動の前記大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することが、
前記対応する物理的オブジェクトに対する前記入力の移動の前記大きさが第1の大きさであるとの判定に従って、第1の調整により前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することと、
前記対応する物理的オブジェクトに対する前記入力の移動の前記大きさが、前記第1の大きさとは別個の第2の大きさであるとの判定に従って、前記第1の調整とは別個の第2の調整により前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することと、
を含む、請求項1に記載の方法。 - 前記対応する仮想ユーザインタフェースオブジェクトが、前記調整することの前及び後に、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに固定される、請求項1又は2に記載の方法。
- 前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の前記移動を検出したことに応じて、前記対応する仮想ユーザインタフェースオブジェクトの前記外観が調整され、前記入力の前記移動が、
前記入力デバイス上の前記入力の移動することと、
前記対応する物理的オブジェクトに対する前記1つ以上のカメラの移動することと、
又は前記入力デバイス上の前記入力の前記移動と前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記移動との組み合わせることと、
に起因するかに関わらない、請求項1から3のいずれか一項に記載の方法。 - 前記対応する物理的オブジェクトに対する前記入力の前記移動が、
前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記視野の移動することと、
及び前記入力デバイス上の前記入力の移動することと、
に基づく、請求項1から4のいずれか一項に記載の方法。 - 前記対応する物理的オブジェクトに対する前記入力の前記移動が、前記入力デバイス上の前記入力の移動に基づき、前記方法が、
前記対応する物理的オブジェクトに対する前記入力の移動の前記大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整した後に、
前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記視野の移動を検出することと、
前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記視野の前記移動を検出したことに応じて、前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記視野の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整し続けることと、
を含む、請求項1から4のいずれか一項に記載の方法。 - 前記対応する物理的オブジェクトに対する前記入力の前記移動が、前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記視野の移動に基づき、前記方法が、
前記対応する物理的オブジェクトに対する前記入力の移動の前記大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整した後に、
前記入力デバイス上の前記入力の移動を検出することと、
前記入力デバイス上の前記入力の前記移動を検出したことに応じて、前記入力デバイス上の前記入力の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整し続けることと、
を含む、請求項1から4のいずれか一項に記載の方法。 - 前記対応する仮想ユーザインタフェースオブジェクトに対応する前記位置で前記入力を検出することが、前記対応する仮想ユーザインタフェースオブジェクト上の第1の接触点で前記入力を検出することを含み、
前記コンピュータシステムが、前記入力の位置に対応する位置に前記対応する仮想ユーザインタフェースオブジェクト上の前記第1の接触点の表示を維持するように、前記対応する仮想ユーザインタフェースオブジェクトの前記表示を更新する、
請求項1から7のいずれか一項に記載の方法。 - 前記対応する物理的オブジェクトに対する前記入力の移動が、前記コンピュータシステムの移動を含み、
前記コンピュータシステムの移動が、前記1つ以上のカメラの前記視野内の1つ以上の基準点が前記1つ以上のカメラによってキャプチャされた連続画像間で変化していることを示す画像解析から導出される、
請求項1から8のいずれか一項に記載の方法。 - 前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することが、前記対応する仮想ユーザインタフェースオブジェクトの少なくとも一部分を移動させることを含み、前記対応する仮想ユーザインタフェースオブジェクトの移動が、前記対応する物理的オブジェクトの物理的形状に基づく、請求項1から9のいずれか一項に記載の方法。
- 前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することが、前記対応する仮想ユーザインタフェースオブジェクトの少なくとも一部分を移動させることを含み、前記対応する仮想ユーザインタフェースオブジェクトの移動が、同時に起こる、1つ以上のタッチ入力の移動及び前記コンピュータシステムの移動に基づく、請求項1から10のいずれか一項に記載の方法。
- 前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することが、前記対応する仮想ユーザインタフェースオブジェクトの静止状態の最大限界を越えて、前記対応する仮想ユーザインタフェースオブジェクトの少なくとも一部分を移動させることを含み、前記方法が、
前記入力を検出し続けている間に、前記対応する物理的オブジェクトに対する前記入力の移動の前記大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの前記静止状態の前記最大限界を越える位置に、前記対応する仮想ユーザインタフェースオブジェクトを表示することと、
前記入力を検出することを停止することと、
前記入力を検出することを停止したことに応じて、前記対応する仮想ユーザインタフェースオブジェクトの前記静止状態の前記最大限界に対応する位置に、前記対応する仮想ユーザインタフェースオブジェクトを表示することと、
を含む、請求項1から11のいずれか一項に記載の方法。 - 前記表示された拡張現実環境が、
前記1つ以上のカメラの前記視野内の物理的オブジェクトに対応しない1つ以上の仮想オブジェクトと、
前記1つ以上のカメラの前記視野内にある1つ以上の物理的オブジェクトと、
前記対応する1つ以上の物理的オブジェクトの少なくとも一部分を置き換える、前記1つ以上のカメラの前記視野内にある前記1つ以上の物理的オブジェクトの1つ以上の3次元仮想モデルと、
を含む、請求項1から12のいずれか一項に記載の方法。 - 前記対応する物理的オブジェクトが、異なる角度から認識可能である3次元マーカであり、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラのカメラアングルに基づいて、前記対応する物理的オブジェクトに重ね合わされた3次元仮想モデルである、請求項1から13のいずれか一項に記載の方法。
- コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、拡張現実環境であって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
拡張現実環境を表示し、
前記拡張現実環境を表示している間に、前記対応する仮想ユーザインタフェースオブジェクトに対応する位置での入力を検出し、
前記入力を検出し続けている間に、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の移動を検出し、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の前記移動を検出したことに応じて、前記対応する物理的オブジェクトに対する前記入力の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整する、
命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令は、表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、拡張現実環境であって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
拡張現実環境を表示させ、
前記拡張現実環境を表示している間に、前記対応する仮想ユーザインタフェースオブジェクトに対応する位置での入力を検出させ、
前記入力を検出し続けている間に、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の移動を検出させ、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の前記移動を検出したことに応じて、前記対応する物理的オブジェクトに対する前記入力の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整させる、
コンピュータ可読記憶媒体。 - 表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示する前記手段は、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示する手段を含む、
手段と、
前記拡張現実環境を表示している間に有効にされ、前記対応する仮想ユーザインタフェースオブジェクトに対応する位置での入力を検出する手段と、
前記入力を検出し続けている間に有効にされる手段であって、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の移動を検出する手段と、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の前記移動を検出したことに応じて有効にされ、前記対応する物理的オブジェクトに対する前記入力の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整する手段と、
を含む、手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示する前記手段は、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示する手段を含む、手段と、
前記拡張現実環境を表示している間に有効にされ、前記対応する仮想ユーザインタフェースオブジェクトに対応する位置での入力を検出する手段と、
前記入力を検出し続けている間に有効にされる手段であって、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の移動を検出する手段と、
前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記入力の前記移動を検出したことに応じて有効にされ、前記対応する物理的オブジェクトに対する前記入力の移動の大きさに従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整する手段と、
を含む、手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から14のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項1から14のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、1つ以上のカメラ、入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項1から14のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
請求項1から14のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
請求項1から14のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、拡張現実環境を表示することであって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、ことと、
前記拡張現実環境を表示している間に、前記拡張現実環境の仮想環境設定を変更する入力を検出することと、
前記仮想環境設定を変更する前記入力を検出したことに応じて、
前記拡張現実環境の前記仮想環境設定になされた前記変更に従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整することと、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分にフィルタを適用することであって、前記フィルタは、前記仮想環境設定になされた前記変更に基づいて選択される、ことと、
を含む、方法。 - 前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分に前記フィルタを適用することが、前記対応する仮想ユーザインタフェースオブジェクトの前記外観調整に加えて、前記拡張現実環境の外観調整を引き起こす、請求項24に記載の方法。
- 前記仮想環境設定が、夜間モードに変更され、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分に前記フィルタを適用することが、
前記1つ以上のカメラによってキャプチャされた画像の輝度を低減することと、
前記1つ以上のカメラによってキャプチャされた前記画像にカラーフィルタを適用することと、
を含む、請求項24又は25に記載の方法。 - 前記仮想環境設定を変更する前記入力が、前記拡張現実環境内で時間を通してナビゲートするスワイプ入力である、請求項24から26のいずれか一項に記載の方法。
- 前記仮想環境設定を変更する前記入力を検出することが、前記仮想環境設定を変更するための前記入力の移動を検出することを含み、
前記拡張現実環境の前記仮想環境設定になされた前記変更に従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を調整することが、前記仮想環境設定を変更するための前記入力の前記移動に従って、前記対応する仮想ユーザインタフェースオブジェクトの前記外観を漸進的に調整することを含み、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分に前記フィルタを適用することが、前記仮想環境設定を変更するための前記入力の前記移動に従って、前記フィルタを漸進的に適用することを含む、
請求項24から27のいずれか一項に記載の方法。 - 前記対応する仮想ユーザインタフェースオブジェクトが、前記拡張現実環境内の前記対応する物理的オブジェクトに影を投じる、請求項24から28のいずれか一項に記載の方法。
- 前記対応する物理的オブジェクトが、前記拡張現実環境内の前記対応する仮想ユーザインタフェースオブジェクトに影を投じる、請求項24から29のいずれか一項に記載の方法。
- 前記対応する物理的オブジェクトの移動が、前記拡張現実環境内の前記対応する仮想ユーザインタフェースオブジェクトの前記外観の1つ以上の変化を引き起こす、請求項24から30のいずれか一項に記載の方法。
- 前記コンピュータシステムの移動が、前記1つ以上のカメラの前記視野の少なくとも一部分の前記表現及び前記対応する仮想ユーザインタフェースオブジェクトの前記外観に適用される視覚効果の1つ以上の変化を引き起こす、請求項24から31のいずれか一項に記載の方法。
- 前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分に前記フィルタを適用することが、
前記1つ以上のカメラによってキャプチャされた画像が前記表示生成コンポーネントに送信される前に、前記画像に前記フィルタを適用することを含む、
請求項24から32のいずれか一項に記載の方法。 - 前記仮想環境設定を変更する前記入力が、前記仮想ユーザインタフェースオブジェクトの異なる仮想環境間で切り替える入力であり、異なる仮想環境は、前記仮想ユーザインタフェースオブジェクトを探索するための異なる相互作用に関連付けられる、請求項24から33のいずれか一項に記載の方法。
- 第1の仮想環境設定が選択されているとの判定に従って、前記拡張現実環境内に仮想オブジェクトの第1のセットを表示することと、
第2の仮想環境設定が選択されているとの判定に従って、前記拡張現実環境内に、仮想オブジェクトの前記第1のセットとは別個の仮想オブジェクトの第2のセットを表示することと、
を含む、請求項24から34のいずれか一項に記載の方法。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、拡張現実環境であって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
拡張現実環境を表示し、
前記拡張現実環境を表示している間に、前記拡張現実環境の仮想環境設定を変更する入力を検出し、
前記仮想環境設定を変更する前記入力を検出したことに応じて、
前記拡張現実環境の前記仮想環境設定になされた前記変更に従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整し、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分に、フィルタであって、前記フィルタは、前記仮想環境設定になされた前記変更に基づいて選択される、フィルタを適用する、
命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、拡張現実環境であって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
拡張現実環境を表示させ、
前記拡張現実環境を表示している間に、前記拡張現実環境の仮想環境設定を変更する入力を検出させ、
前記仮想環境設定を変更する前記入力を検出したことに応じて、
前記拡張現実環境の前記仮想環境設定になされた前記変更に従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整させ、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分に、フィルタであって、前記フィルタは、前記仮想環境設定になされた前記変更に基づいて選択される、フィルタを適用させる、
コンピュータ可読記憶媒体。 - 表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示する前記手段は、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示する手段を含む、
手段と、
前記拡張現実環境を表示している間に有効にされ、前記拡張現実環境の仮想環境設定を変更する入力を検出する手段と、
前記仮想環境設定を変更する前記入力を検出したことに応じて有効にされる手段であって、
前記拡張現実環境の前記仮想環境設定になされた前記変更に従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整する手段と、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分にフィルタを適用する手段であって、前記フィルタが、前記仮想環境設定になされた前記変更に基づいて選択される、手段と、
を含む、手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示する前記手段は、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある対応する仮想ユーザインタフェースオブジェクトであって、前記対応する仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、対応する仮想ユーザインタフェースオブジェクトと、
を同時に表示する手段を含む、
手段と、
前記拡張現実環境を表示している間に有効にされ、前記拡張現実環境の仮想環境設定を変更する入力を検出する手段と、
前記仮想環境設定を変更する前記入力を検出したことに応じて有効にされる手段であって、
前記拡張現実環境の前記仮想環境設定になされた前記変更に従って、前記対応する仮想ユーザインタフェースオブジェクトの外観を調整する手段と、
前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分にフィルタを適用する手段であって、前記フィルタが、前記仮想環境設定になされた前記変更に基づいて選択される、手段と、
を含む、手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項24から35のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項24から35のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、1つ以上のカメラ、入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項24から35のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
請求項24から35のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
請求項24から35のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、拡張現実環境を表示することであって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトであって、前記第1の仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、第1の仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、ことと、
前記拡張現実環境を表示している間に、前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する第1の入力を検出することと、
前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて、
前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの視点からの前記仮想モデルのシミュレートされた視野を表示することと、
を含む、方法。 - 前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記表現を表示することを停止することを含む、請求項45に記載の方法。
- 前記拡張現実環境を表示している間に、前記1つ以上のカメラの前記視野を変更する前記コンピュータシステムの少なくとも一部分の移動を検出したことに応じて、前記1つ以上のカメラの前記視野の前記表現を更新することを含む、請求項45又は46に記載の方法。
- 前記拡張現実環境を表示している間に、前記1つ以上のカメラの前記視野の前記コンテンツの視点を変更する前記コンピュータシステムの少なくとも一部分の移動を検出したことに応じて、前記視野の前記コンテンツの前記視点の前記変更に従って、前記1つ以上のカメラの前記視野の前記表現及び前記仮想モデルを更新することを含む、請求項45から47のいずれか一項に記載の方法。
- 前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて、前記拡張現実環境から前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの前記視点からの前記仮想モデルの前記シミュレートされた視野へのアニメーション化された遷移を表示することを含む、請求項45から48のいずれか一項に記載の方法。
- 前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの前記視点からの前記仮想モデルの前記シミュレートされた視野を表示している間に、
前記拡張現実環境を表示する要求に対応する第2の入力を検出することと、
前記拡張現実環境を表示する前記要求に対応する前記第2の入力に応じて、
前記仮想モデルの前記シミュレートされた視野から前記拡張現実環境へのアニメーション化された遷移を表示することと、
前記拡張現実環境を表示することと、
を含む、請求項45から49のいずれか一項に記載の方法。 - 前記第2の入力に応じて前記拡張現実環境を表示することが、前記第2の入力を検出した後の前記1つ以上のカメラの前記視野に従って、前記拡張現実環境を表示することを含む、請求項50に記載の方法。
- 前記第2の入力を検出した後の前記1つ以上のカメラの前記視野が、前記第1の入力が検出されたときの前記1つ以上のカメラの前記視野とは異なる、請求項51に記載の方法。
- 前記第1の仮想ユーザインタフェースオブジェクトが、前記コンピュータシステムのユーザからの入力とは無関係に、前記仮想モデル内で移動する、請求項45から52のいずれか一項に記載の方法。
- 前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの前記視点からの前記仮想モデルの前記シミュレートされた視野を表示している間に、前記第1の仮想ユーザインタフェースオブジェクトが、前記コンピュータシステムのユーザからの1つ以上の入力に応じて前記仮想モデル内で移動する、請求項45から53のいずれか一項に記載の方法。
- 前記シミュレートされた視野を表示している間に、前記コンピュータシステムの少なくとも一部分の移動を検出することと、前記コンピュータシステムの前記移動を検出したことに応じて、前記コンピュータシステムの前記移動に従って、前記第1の仮想ユーザインタフェースオブジェクトの前記視点からの前記仮想モデルの前記シミュレートされた視野を変更することと、を含む、請求項45から54のいずれか一項に記載の方法。
- 前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの前記視点からの前記仮想モデルの前記シミュレートされた視野を表示している間に、前記仮想モデル内の第2の仮想ユーザインタフェースオブジェクトの選択に対応する第3の入力を検出することと、
前記第2の仮想ユーザインタフェースオブジェクトの選択に対応する前記第3の入力を検出したことに応じて、
前記仮想モデル内の前記第2の仮想ユーザインタフェースオブジェクトの視点からの前記仮想モデルの第2のシミュレートされた視野を表示することと、
を含む、請求項45から55のいずれか一項に記載の方法。 - 前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの前記視点からの前記仮想モデルの前記シミュレートされた視野を表示している間に、関連するシミュレートされた視野を表示することができる仮想ユーザインタフェースオブジェクト以外の前記仮想モデル内の位置の選択に対応する第4の入力を検出することと、
前記第4の入力を検出したことに応じて、
前記拡張現実環境を再表示することと、
を含む、請求項45から56のいずれか一項に記載の方法。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、拡張現実環境であって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトであって、前記第1の仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、第1の仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
拡張現実環境を表示し、
前記拡張現実環境を表示している間に、前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する第1の入力を検出し、
前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて、
前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの視点からの前記仮想モデルのシミュレートされた視野を表示する、
命令を含む、コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、拡張現実環境であって、前記拡張現実環境を表示することは、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトであって、前記第1の仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、第1の仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
拡張現実環境を表示させ、
前記拡張現実環境を表示している間に、前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する第1の入力を検出させ、
前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて、
前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの視点からの前記仮想モデルのシミュレートされた視野を表示させる、
コンピュータ可読記憶媒体。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示する前記手段は、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトであって、前記第1の仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、第1の仮想ユーザインタフェースオブジェクトと、
を同時に表示する手段を含む、
手段と、
前記拡張現実環境を表示している間に有効にされ、前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する第1の入力を検出する手段と、
前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて有効にされる手段であって、
前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの視点からの前記仮想モデルのシミュレートされた視野を表示する手段を含む、
手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えた電子デバイスで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示する前記手段は、
対応する物理的オブジェクトを含む前記1つ以上のカメラの視野の少なくとも一部分の表現であって、前記表現が、前記1つ以上のカメラの前記視野のコンテンツが変化するにつれて更新される、表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトであって、前記第1の仮想ユーザインタフェースオブジェクトが、前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに基づいて決定される位置を有する、第1の仮想ユーザインタフェースオブジェクトと、
を同時に表示する手段を含む、
手段と、
前記拡張現実環境を表示している間に有効にされ、前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する第1の入力を検出する手段と、
前記第1の仮想ユーザインタフェースオブジェクトの選択に対応する前記第1の入力を検出したことに応じて有効にされる手段であって、
前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの視点からの前記仮想モデルのシミュレートされた視野を表示する手段を含む、
手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項45から57のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項45から57のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、1つ以上のカメラ、入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項45から57のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
1つ以上のカメラと、
入力デバイスと、
請求項45から57のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
請求項45から57のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 表示生成コンポーネント及び入力デバイスを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、仮想3次元空間内に第1の仮想ユーザインタフェースオブジェクトを表示することと、
前記仮想3次元空間内に前記第1の仮想ユーザインタフェースオブジェクトを表示している間に、前記入力デバイスを介して、前記第1の仮想ユーザインタフェースオブジェクトの対応する部分の選択及び2次元での第1の入力の移動を含む前記第1の入力を検出することと、
2次元での前記第1の入力の移動を含む前記第1の入力を検出したことに応じて、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの第1の部分であるとの判定に従って、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分に基づいて決定された第1の方向に、前記第1の仮想ユーザインタフェースオブジェクトの外観を調整することであって、前記第1の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の第1のセット内の移動に制約される、ことと、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分とは別個の前記第1の仮想ユーザインタフェースオブジェクトの第2の部分であるとの判定に従って、前記第1の方向とは異なる第2の方向に前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することであって、前記第2の方向が、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第2の部分に基づいて決定され、前記第2の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の前記第1のセットとは異なる前記仮想3次元空間の2次元の第2のセット内の移動に制約される、ことと、
を含む、方法。 - 前記第1の部分が、前記第1の仮想ユーザインタフェースオブジェクトの第1の側面であり、
前記第2の部分が、前記第1の仮想ユーザインタフェースオブジェクトの第2の側面であり、前記第1の側面が、前記第2の側面に平行ではない、
請求項67に記載の方法。 - 前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することが、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することであって、
前記第1の仮想ユーザインタフェースオブジェクトの位置が、前記仮想ユーザインタフェースオブジェクトの前記選択された対応する部分に平行な平面にロックされ、
前記第1の入力の前記2次元移動が、前記仮想ユーザインタフェースオブジェクトの前記選択された対応する部分に平行な前記平面上の前記第1の仮想ユーザインタフェースオブジェクトの2次元移動に対応する、
ようになる、ことを含む、
請求項67又は68に記載の方法。 - 前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することが、前記仮想ユーザインタフェースオブジェクトの前記選択された対応する部分に平行な前記平面の視覚的インジケーションを含む移動平面インジケータを表示することを含む、請求項69に記載の方法。
- 前記移動平面インジケータが、前記仮想ユーザインタフェースオブジェクトの前記選択された対応する部分に平行な前記平面に沿って前記第1の仮想ユーザインタフェースオブジェクトから延びる1つ以上の投影を含む、請求項70に記載の方法。
- 前記第1の入力の移動を含む前記第1の入力を検出したことに応じて、前記第1の入力がサイズ調整基準を満たすか否かを判定することと、
前記第1の入力が前記サイズ調整基準を満たすとの判定に従って、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することであって、
前記第1の仮想ユーザインタフェースオブジェクトの位置が、前記仮想3次元空間内のアンカーポイントにロックされ、
前記第1の仮想ユーザインタフェースオブジェクトのサイズが、前記第1の仮想ユーザインタフェースオブジェクトの前記選択された対応する部分に垂直な軸に沿って調整される、
ようになる、ことと、を含む、
請求項67又は68に記載の方法。 - 前記アンカーポイントが、前記第1の仮想ユーザインタフェースオブジェクトの前記選択された対応する部分の反対側の前記第1の仮想ユーザインタフェースオブジェクトの部分上に位置する、請求項72に記載の方法。
- 前記アンカーポイントが、前記第1の仮想ユーザインタフェースオブジェクトの重心である、請求項72に記載の方法。
- 前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することが、移動軸インジケータを表示することを含み、前記移動軸インジケータが、前記第1の仮想ユーザインタフェースオブジェクトの前記選択された対応する部分に垂直な軸の視覚的インジケーションを含む、請求項72から74のいずれか一項に記載の方法。
- 前記移動軸インジケータが、前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分に垂直な前記軸に平行な1つ以上の投影を含み、前記1つ以上の投影が、前記第1の仮想ユーザインタフェースオブジェクトから延びる、請求項75に記載の方法。
- 前記コンピュータシステムが、触知出力を生成するための1つ以上の触知出力生成器を含み、前記方法が、
前記第1の仮想ユーザインタフェースオブジェクトの外観を対応する方向に調整している間に、前記第1の入力の前記移動が前記第1の仮想ユーザインタフェースオブジェクトの対応する部分に、前記仮想3次元空間内に存在する仮想要素と衝突させると判定することと、
前記第1の入力の前記移動が前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分に前記仮想要素と衝突させるとの判定に従って、前記1つ以上の触知出力生成器を用いて触知出力を生成することと、
を含む、請求項67から76のいずれか一項に記載の方法。 - 前記仮想3次元空間を表示している間に、前記入力デバイスを介して、前記仮想3次元空間内の第1の位置に向けられた第2の入力を検出することと、
前記第2の入力を検出したことに応じて、前記第2の入力が第1の入力形式を有するとの判定に従って、前記仮想3次元空間内の前記第1の位置に挿入カーソルを表示することと、
前記挿入カーソルが前記第1の位置に表示されている間に、前記入力デバイスを介して、第3の入力を検出することと、
前記第3の入力を検出したことに応じて、
前記第3の入力が前記第1の入力形式を有し、かつ前記表示された挿入カーソルに対応する前記第1の位置に向けられているとの判定に従って、前記第1の位置に第2の仮想ユーザインタフェースオブジェクトを挿入することと、
前記第3の入力が前記第1の入力形式を有し、かつ前記表示された挿入カーソルに対応しない第2の位置に向けられているとの判定に従って、前記挿入カーソルを前記第2の位置に表示することと、
を含む、請求項67から77のいずれか一項に記載の方法。 - 前記仮想3次元空間を表示している間に、前記入力デバイスを介して、前記仮想3次元空間内の第3の位置に向けられた第4の入力を検出することと、
前記仮想3次元空間内の前記第3の位置に向けられた前記第4の入力を検出したことに応じて、前記第4の入力が前記第1の入力形式を有するとの判定に従って、前記第3の位置に挿入カーソルを表示することと、
前記挿入カーソルが前記第3の位置に表示されている間に、前記入力デバイスを介して、アクティブ化されると、前記第3の位置に新しい仮想ユーザインタフェースオブジェクトの挿入を引き起こす新規オブジェクトコントロールに対応する位置での第5の入力を検出することと、
前記第5の入力を検出したことに応じて、前記新しい仮想ユーザインタフェースオブジェクトを前記第3の位置に挿入することと、
を含む、請求項67から78のいずれか一項に記載の方法。 - 前記入力デバイスを介して、前記仮想3次元空間との相互作用に対応するジェスチャを検出することと、
前記仮想3次元空間との前記相互作用に対応する前記ジェスチャを検出したことに応じて、前記ジェスチャに対応する前記仮想3次元空間内の動作を実行することと、
を含む、請求項67から79のいずれか一項に記載の方法。 - 前記コンピュータシステムが、1つ以上のカメラを含み、
前記表示された仮想3次元空間が、
前記1つ以上のカメラの視野内にある1つ以上の物理的オブジェクトと、
前記1つ以上のカメラの前記視野内にある前記1つ以上の物理的オブジェクトの1つ以上の仮想3次元モデルと、
を含む、請求項67から80のいずれか一項に記載の方法。 - 前記1つ以上のカメラの前記視野内の前記対応する物理的オブジェクトに対する前記第1の入力の前記移動を検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトの前記外観が調整され、前記第1の入力の前記移動が、
前記入力デバイス上の前記第1の入力の移動することと、
対応する物理的オブジェクトに対する前記1つ以上のカメラの移動することと、
又は前記入力デバイス上の前記第1の入力の前記移動と前記対応する物理的オブジェクトに対する前記1つ以上のカメラの前記移動との組み合わせることと、
に起因するかに関わらない、請求項81に記載の方法。 - コンピュータシステムであって、
表示生成コンポーネントと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、仮想3次元空間内に第1の仮想ユーザインタフェースオブジェクトを表示し、
前記仮想3次元空間内に前記第1の仮想ユーザインタフェースオブジェクトを表示している間に、前記入力デバイスを介して、前記第1の仮想ユーザインタフェースオブジェクトの対応する部分の選択及び2次元での第1の入力の移動を含む前記第1の入力を検出し、
2次元での前記第1の入力の移動を含む前記第1の入力を検出したことに応じて、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの第1の部分であるとの判定に従って、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分に基づいて決定された第1の方向に、前記第1の仮想ユーザインタフェースオブジェクトの外観を調整することであって、前記第1の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の第1のセット内の移動に制約される、ことをし、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分とは別個の前記第1の仮想ユーザインタフェースオブジェクトの第2の部分であるとの判定に従って、前記第1の方向とは異なる第2の方向に前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することであって、前記第2の方向が、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第2の部分に基づいて決定され、前記第2の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の前記第1のセットとは異なる前記仮想3次元空間の2次元の第2のセット内の移動に制約される、ことをする、
命令を含む、コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、仮想3次元空間内に第1の仮想ユーザインタフェースオブジェクトを表示させ、
前記仮想3次元空間内に前記第1の仮想ユーザインタフェースオブジェクトを表示している間に、前記入力デバイスを介して、前記第1の仮想ユーザインタフェースオブジェクトの対応する部分の選択及び2次元での第1の入力の移動を含む前記第1の入力を検出させ、
2次元での前記第1の入力の移動を含む前記第1の入力を検出したことに応じて、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの第1の部分であるとの判定に従って、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分に基づいて決定された第1の方向に、前記第1の仮想ユーザインタフェースオブジェクトの外観を調整することであって、前記第1の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の第1のセット内の移動に制約される、ことをさせ、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分とは別個の前記第1の仮想ユーザインタフェースオブジェクトの第2の部分であるとの判定に従って、前記第1の方向とは異なる第2の方向に前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整することであって、前記第2の方向が、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第2の部分に基づいて決定され、前記第2の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の前記第1のセットとは異なる前記仮想3次元空間の2次元の第2のセット内の移動に制約される、ことをさせる、
コンピュータ可読記憶媒体。 - コンピュータシステムであって、
表示生成コンポーネントと、
入力デバイスと、
前記表示生成コンポーネントを介して、仮想3次元空間内に第1の仮想ユーザインタフェースオブジェクトを表示する手段と、
前記仮想3次元空間内に前記第1の仮想ユーザインタフェースオブジェクトを表示している間に有効にされ、前記入力デバイスを介して、前記第1の仮想ユーザインタフェースオブジェクトの対応する部分の選択及び2次元での第1の入力の移動を含む前記第1の入力を検出する手段と、
2次元での前記第1の入力の移動を含む前記第1の入力を検出したことに応じて有効にされる手段であって、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの第1の部分であるとの判定に従って有効にされ、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分に基づいて決定された第1の方向に、前記第1の仮想ユーザインタフェースオブジェクトの外観を調整する手段であって、前記第1の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の第1のセット内の移動に制約される、手段と、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分とは別個の前記第1の仮想ユーザインタフェースオブジェクトの第2の部分であるとの判定に従って有効にされ、前記第1の方向とは異なる第2の方向に前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整する手段であって、前記第2の方向が、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第2の部分に基づいて決定され、前記第2の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の前記第1のセットとは異なる前記仮想3次元空間の2次元の第2のセット内の移動に制約される、手段と、
を含む、手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、仮想3次元空間内に第1の仮想ユーザインタフェースオブジェクトを表示する手段と、
前記仮想3次元空間内に前記第1の仮想ユーザインタフェースオブジェクトを表示している間に有効にされ、前記入力デバイスを介して、前記第1の仮想ユーザインタフェースオブジェクトの対応する部分の選択及び2次元での第1の入力の移動を含む前記第1の入力を検出する手段と、
2次元での前記第1の入力の移動を含む前記第1の入力を検出したことに応じて有効にされる手段であって、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの第1の部分であるとの判定に従って有効にされ、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分に基づいて決定された第1の方向に、前記第1の仮想ユーザインタフェースオブジェクトの外観を調整する手段であって、前記第1の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の第1のセット内の移動に制約される、手段と、
前記第1の仮想ユーザインタフェースオブジェクトの前記対応する部分が前記第1の仮想ユーザインタフェースオブジェクトの前記第1の部分とは別個の前記第1の仮想ユーザインタフェースオブジェクトの第2の部分であるとの判定に従って有効にされ、前記第1の方向とは異なる第2の方向に前記第1の仮想ユーザインタフェースオブジェクトの前記外観を調整する手段であって、前記第2の方向が、2次元での前記第1の入力の前記移動及び選択された前記第1の仮想ユーザインタフェースオブジェクトの前記第2の部分に基づいて決定され、前記第2の方向の前記第1の仮想ユーザインタフェースオブジェクトの前記調整が、前記仮想3次元空間の2次元の前記第1のセットとは異なる前記仮想3次元空間の2次元の第2のセット内の移動に制約される、手段と、
を含む、手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項67から82のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項67から82のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項67から82のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
入力デバイスと、
請求項67から82のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
請求項67から82のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、前記コンピュータシステムの物理的環境に対して向けられたシミュレートされた環境を第1の閲覧モードで表示することであって、前記シミュレートされた環境を前記第1の閲覧モードで表示することは、前記コンピュータシステムの前記物理的環境に関連付けられた前記シミュレートされた環境内の第1の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトを表示することを含む、ことと、
前記シミュレートされた環境を表示している間に、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出することと、
前記コンピュータシステムの前記一部分の前記姿勢の前記第1の変化を検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の固定された空間的関係を維持するように、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することと、
前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づいて前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更した後に、前記入力デバイスを介して、前記シミュレートされた環境との相互作用に対応する第1のジェスチャを検出することと、
前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに対応する前記シミュレートされた環境内での動作を実行することと、
前記第1のジェスチャに対応する前記動作を実行した後に、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の変化を検出することと、
前記コンピュータシステムの前記一部分の前記姿勢の前記第2の変化を検出したことに応じて、
モード変更基準であって、前記モード変更基準は、前記第1のジェスチャが前記物理的環境に対する前記シミュレートされた環境の空間的パラメータを変更する入力に対応するという要件を含む、モード変更基準を前記第1のジェスチャが満たしたとの判定に従って、前記第1の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することから、第2の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することに遷移することであって、前記第2の閲覧モードで前記シミュレートされた環境内に前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更することを控えて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持することを含む、ことと、
前記第1のジェスチャが前記モード変更基準を満たさなかったとの判定に従って、前記第1の閲覧モードで前記シミュレートされた環境内に前記第1の仮想モデルを表示し続けることであって、前記第1の閲覧モードで前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持するように、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化に応じて、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することを含む、ことと、
を含む、方法。 - 前記コンピュータシステムが、1つ以上のカメラを含み、
前記第1の閲覧モードで前記シミュレートされた環境を表示することが、前記1つ以上のカメラの視野の少なくとも一部分の表現を表示することを含み、前記1つ以上のカメラの前記視野が、前記物理的環境内の物理的オブジェクトの表現を含む、
請求項92に記載の方法。 - 前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出することが、
前記入力デバイスのタッチ感知面との複数の接触を検出することと、
前記タッチ感知面との前記複数の接触が検出されている間に、前記複数の接触の第2の接触の移動に対する前記複数の接触の第1の接触の移動を検出することと、
を含み、
前記第1のジェスチャに対応する前記シミュレートされた環境内での前記動作を実行することが、前記第2の接触の前記移動に対する前記第1の接触の前記移動に対応する量だけ、前記第1の仮想ユーザインタフェースオブジェクトのサイズを変更することを含む、
請求項92又は93に記載の方法。 - 前記第2の閲覧モードで前記シミュレートされた環境内に前記第1の仮想ユーザインタフェースオブジェクトを表示している間に、
前記入力デバイスを介して、前記シミュレートされた環境との相互作用に対応する第2のジェスチャであって、前記第2のジェスチャが、前記シミュレートされた環境の視点を変更するための入力を含む、第2のジェスチャを検出することと、
前記シミュレートされた環境との前記相互作用に対応する前記第2のジェスチャを検出したことに応じて、前記シミュレートされた環境の前記視点を変更するための前記入力に従って、前記シミュレートされた環境の表示される視点を更新することと、
を含む、請求項92から94のいずれか一項に記載の方法。 - 前記第2の閲覧モードで前記シミュレートされた環境を表示している間に、
前記入力デバイスを介して、前記シミュレートされた環境内の第2の対応する位置に第2の仮想ユーザインタフェースオブジェクトを挿入するための挿入入力を検出することと、
前記第2の仮想ユーザインタフェースオブジェクトを挿入するための前記挿入入力を検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持しながら、前記シミュレートされた環境内の前記第2の対応する位置に、前記第2の仮想ユーザインタフェースオブジェクトを表示することと、
を含む、請求項92から95のいずれか一項に記載の方法。 - 前記第2の閲覧モードで前記シミュレートされた環境を表示している間に、
前記入力デバイスを介して、前記仮想モデルの対応する仮想ユーザインタフェースオブジェクトの対応する側面の選択及び2次元での入力の移動を含む移動の前記入力を検出することと、
前記移動を検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持しながら、前記第2の入力の前記移動に基づいて決定される第1の方向に、前記対応する仮想ユーザインタフェースオブジェクトの前記選択された対応する側面に平行である平面内で、前記対応する仮想ユーザインタフェースオブジェクトを移動させることと、
を含む、請求項92から96のいずれか一項に記載の方法。 - 前記第1の閲覧モードで前記シミュレートされた環境を表示することから前記第2の閲覧モードで前記シミュレートされた環境を表示することに遷移している間に、遷移アニメーションを表示して、前記遷移の視覚的インジケーションを提供することを含む、請求項92から97のいずれか一項に記載の方法。
- 前記遷移アニメーションを表示することが、前記第1の閲覧モードでは表示され前記第2の閲覧モードでは表示されない少なくとも1つの視覚要素を表示することを漸進的に停止することを含む、請求項98に記載の方法。
- 前記遷移アニメーションを表示することが、前記第1の閲覧モードでは表示されない前記第2の閲覧モードの少なくとも1つの視覚要素を漸進的に表示することを含む、請求項98又は99に記載の方法。
- 前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに対応する前記入力による前記空間的パラメータへの前記変更に従って、前記シミュレートされた環境内の前記仮想モデルが表示される視点を変更することを含む、請求項92から100のいずれか一項に記載の方法。
- 前記第1のジェスチャの終了を検出した後に、前記シミュレートされた環境内の前記仮想モデルが表示される視点を変更し続けて、前記第1の閲覧モードで前記シミュレートされた環境を表示することから前記第2の閲覧モードで前記シミュレートされた環境を表示することに前記遷移することを示すことを含む、請求項101に記載の方法。
- 前記第2の閲覧モードで前記シミュレートされた環境を表示している間に、前記入力デバイスを介して、前記第2の閲覧モードから前記第1の閲覧モードに遷移するための入力に対応する第3のジェスチャを検出することと、
前記第3のジェスチャを検出したことに応じて、前記第2の閲覧モードで前記シミュレートされた環境を表示することから前記第1の閲覧モードで前記シミュレートされた環境を表示することに遷移することと、
を含む、請求項92から101のいずれか一項に記載の方法。 - 前記入力デバイスが、タッチ感知面を含み、
前記第2の閲覧モードから前記第1の閲覧モードに遷移するための前記入力に対応する前記第3のジェスチャを検出することが、
前記入力デバイスの前記タッチ感知面との前記複数の接触を検出することと、
前記タッチ感知面との前記複数の接触が検出されている間に、前記複数の接触の前記第2の接触の移動に対する前記複数の接触の前記第1の接触の移動を検出することと、
を含み、
前記第2の閲覧モードで前記シミュレートされた環境を表示することから前記第1の閲覧モードで前記シミュレートされた環境を表示することに遷移することが、前記シミュレートされた環境内の前記仮想モデルのサイズを変更して、前記第1の閲覧モードから前記第2の閲覧モードへの前記遷移の前の前記仮想モデルのサイズに戻すことを含む、
請求項103に記載の方法。 - 前記第3のジェスチャが、アクティブ化されると、前記第2の閲覧モードから前記第1の閲覧モードへの前記遷移を引き起こすコントロールに対応する前記入力デバイス上の位置での入力を含む、請求項103に記載の方法。
- 前記第3のジェスチャを検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係に戻すように、前記第1の仮想ユーザインタフェースオブジェクトの前記位置を前記物理的環境に対する現在位置から前記物理的環境に対する以前の位置に遷移させることを含む、
請求項103から105のいずれか一項に記載の方法。 - 前記第3のジェスチャの終了を検出した後に、前記シミュレートされた環境内の前記仮想モデルが表示される視点を変更し続けて、前記第2の閲覧モードで前記シミュレートされた環境を表示することから前記第1の閲覧モードで前記シミュレートされた環境を表示することに前記遷移することを示すことを含む、請求項103から106のいずれか一項に記載の方法。
- コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、前記コンピュータシステムの物理的環境に対して向けられたシミュレートされた環境を第1の閲覧モードで表示することであって、前記シミュレートされた環境を前記第1の閲覧モードで表示することが、前記コンピュータシステムの前記物理的環境に関連付けられた前記シミュレートされた環境内の第1の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトを表示することを含む、ことをし、
前記シミュレートされた環境を表示している間に、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出し、
前記コンピュータシステムの前記一部分の前記姿勢の前記第1の変化を検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の固定された空間的関係を維持するように、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更し、
前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づいて前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更した後に、前記入力デバイスを介して、前記シミュレートされた環境との相互作用に対応する第1のジェスチャを検出し、
前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに対応する前記シミュレートされた環境内での動作を実行し、
前記第1のジェスチャに対応する前記動作を実行した後に、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の変化を検出し、
前記コンピュータシステムの前記一部分の前記姿勢の前記第2の変化を検出したことに応じて、
モード変更基準であって、前記モード変更基準は、前記第1のジェスチャが前記物理的環境に対する前記シミュレートされた環境の空間的パラメータを変更する入力に対応するという要件を含む、モード変更基準を前記第1のジェスチャが満たしたとの判定に従って、前記第1の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することから、第2の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することに遷移することであって、前記第2の閲覧モードで前記シミュレートされた環境内に前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更することを控えて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持することを含む、ことをし、
前記第1のジェスチャが前記モード変更基準を満たさなかったとの判定に従って、前記第1の閲覧モードで前記シミュレートされた環境内に前記第1の仮想モデルを表示し続けることであって、前記第1の閲覧モードで前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持するように、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化に応じて、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することを含む、ことをする、
命令を含む、コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令は、表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、前記コンピュータシステムの物理的環境に対して向けられたシミュレートされた環境を第1の閲覧モードで表示することであって、前記シミュレートされた環境を前記第1の閲覧モードで表示することが、前記コンピュータシステムの前記物理的環境に関連付けられた前記シミュレートされた環境内の第1の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトを表示することを含む、ことをさせ、
前記シミュレートされた環境を表示している間に、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出させ、
前記コンピュータシステムの前記一部分の前記姿勢の前記第1の変化を検出したことに応じて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の固定された空間的関係を維持するように、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更させ、
前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づいて前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更した後に、前記入力デバイスを介して、前記シミュレートされた環境との相互作用に対応する第1のジェスチャを検出させ、
前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに対応する前記シミュレートされた環境内での動作を実行させ、
前記第1のジェスチャに対応する前記動作を実行した後に、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の変化を検出させ、
前記コンピュータシステムの前記一部分の前記姿勢の前記第2の変化を検出したことに応じて、
モード変更基準であって、前記モード変更基準は、前記第1のジェスチャが前記物理的環境に対する前記シミュレートされた環境の空間的パラメータを変更する入力に対応するという要件を含む、モード変更基準を前記第1のジェスチャが満たしたとの判定に従って、前記第1の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することから、第2の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することに遷移することであって、前記第2の閲覧モードで前記シミュレートされた環境内に前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更することを控えて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持することを含む、ことをさせ、
前記第1のジェスチャが前記モード変更基準を満たさなかったとの判定に従って、前記第1の閲覧モードで前記シミュレートされた環境内に前記第1の仮想モデルを表示し続けることであって、前記第1の閲覧モードで前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持するように、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化に応じて、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することを含む、ことをさせる、
コンピュータ可読記憶媒体。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
前記表示生成コンポーネントを介して、前記コンピュータシステムの物理的環境に対して向けられたシミュレートされた環境を第1の閲覧モードで表示する手段であって、前記第1の閲覧モードで前記シミュレートされた環境を表示する前記手段が、前記コンピュータシステムの前記物理的環境に関連付けられた前記シミュレートされた環境内の第1の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトを表示する手段を含む、手段と、
前記シミュレートされた環境を表示している間に有効にされ、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出する手段と、
前記コンピュータシステムの前記一部分の前記姿勢の前記第1の変化を検出したことに応じて有効にされ、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の固定された空間的関係を維持するように、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更する手段と、
前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づいて前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更した後に有効にされ、前記入力デバイスを介して、前記シミュレートされた環境との相互作用に対応する第1のジェスチャを検出する手段と、
前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出したことに応じて有効にされ、前記第1のジェスチャに対応する前記シミュレートされた環境内での動作を実行する手段と、
前記第1のジェスチャに対応する前記動作を実行した後に有効にされ、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の変化を検出する手段と、
前記コンピュータシステムの前記一部分の前記姿勢の前記第2の変化を検出したことに応じて有効にされる手段であって、
モード変更基準であって、前記モード変更基準は、前記第1のジェスチャが前記物理的環境に対する前記シミュレートされた環境の空間的パラメータを変更する入力に対応するという要件を含む、モード変更基準を前記第1のジェスチャが満たしたとの判定に従って有効にされ、前記第1の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することから、第2の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することに遷移する手段であって、前記第2の閲覧モードで前記シミュレートされた環境内に前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更することを控えて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持することを含む、手段と、
前記第1のジェスチャが前記モード変更基準を満たさなかったとの判定に従って有効にされ、前記第1の閲覧モードで前記シミュレートされた環境内に前記第1の仮想モデルを表示し続ける手段であって、前記第1の閲覧モードで前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持するように、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化に応じて、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することを含む、手段と、
を含む、手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えた電子デバイスで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、前記コンピュータシステムの物理的環境に対して向けられたシミュレートされた環境を第1の閲覧モードで表示する手段であって、前記第1の閲覧モードで前記シミュレートされた環境を表示する前記手段が、前記コンピュータシステムの前記物理的環境に関連付けられた前記シミュレートされた環境内の第1の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトを表示する手段を含む、手段と、
前記シミュレートされた環境を表示している間に有効にされ、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出する手段と、
前記コンピュータシステムの前記一部分の前記姿勢の前記第1の変化を検出したことに応じて有効にされ、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の固定された空間的関係を維持するように、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更する手段と、
前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づいて前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更した後に有効にされ、前記入力デバイスを介して、前記シミュレートされた環境との相互作用に対応する第1のジェスチャを検出する手段と、
前記シミュレートされた環境との前記相互作用に対応する前記第1のジェスチャを検出したことに応じて有効にされ、前記第1のジェスチャに対応する前記シミュレートされた環境内での動作を実行する手段と、
前記第1のジェスチャに対応する前記動作を実行した後に有効にされ、前記1つ以上の姿勢センサを介して、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の変化を検出する手段と、
前記コンピュータシステムの前記一部分の前記姿勢の前記第2の変化を検出したことに応じて有効にされる手段であって、
モード変更基準であって、前記モード変更基準は、前記第1のジェスチャが前記物理的環境に対する前記シミュレートされた環境の空間的パラメータを変更する入力に対応するという要件を含む、モード変更基準を前記第1のジェスチャが満たしたとの判定に従って有効にされ、前記第1の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することから、第2の閲覧モードで、前記仮想モデルを含む前記シミュレートされた環境を表示することに遷移する手段であって、前記第2の閲覧モードで前記シミュレートされた環境内に前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更することを控えて、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持することを含む、手段と、
前記第1のジェスチャが前記モード変更基準を満たさなかったとの判定に従って有効にされ、前記第1の閲覧モードで前記シミュレートされた環境内に前記第1の仮想モデルを表示し続ける手段であって、前記第1の閲覧モードで前記仮想モデルを表示することが、前記第1の仮想ユーザインタフェースオブジェクトと前記物理的環境との間の前記固定された空間的関係を維持するように、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化に応じて、前記仮想モデル内の前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することを含む、手段と、
を含む、手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項92から107のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項92から107のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、1つ以上の姿勢センサ、入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項92から107のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
請求項92から107のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
請求項92から107のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 第1の表示生成コンポーネント、1つ以上の第1の姿勢センサ、及び第1の入力デバイスを有する第1のコンピュータシステムにおいて、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して、前記第1のコンピュータシステムの第1の物理的環境に対して向けられたシミュレートされた環境を表示することであって、前記シミュレートされた環境を表示することは、
前記第1のコンピュータシステムの前記第1の物理的環境に関連付けられた前記シミュレートされた環境内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトと、
前記シミュレートされた環境の第2のコンピュータシステムの閲覧視点の視覚的インジケーションであって、前記第2のコンピュータシステムが、第2の表示生成コンポーネント、1つ以上の第2の姿勢センサ、及び第2の入力デバイスを有し、前記第2のコンピュータシステムの前記第2の表示生成コンポーネントを介して、前記第2のコンピュータシステムの第2の物理的環境に対して向けられた前記シミュレートされた環境のビューを表示している、コンピュータシステムである、視覚的インジケーションと、
を同時に表示することを含む、
ことと、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して前記シミュレートされた環境を表示している間に、前記第2のコンピュータシステムの前記第2の物理的環境に対する前記第2のコンピュータシステムの一部分の前記姿勢の変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の変化を検出することと、
前記第2のコンピュータシステムの前記物理的環境に対する前記第2のコンピュータシステムの前記一部分の前記姿勢の前記変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化を検出したことに応じて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化に従って、前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して表示された前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションを更新することと、
を含む、方法。 - 前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションが、前記第2のコンピュータシステムに対応する前記シミュレートされた環境内の位置に表示される前記第2のコンピュータシステムの表現を含む、請求項117に記載の方法。
- 前記第2のコンピュータシステムの前記表現が、前記第2のコンピュータシステムに対応する識別インジケータを含む、請求項118に記載の方法。
- 前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションが、前記第2のコンピュータシステムに対応する前記シミュレートされた環境内の位置から発して、前記第2のコンピュータシステムの視線を示す、インジケータを含む、請求項117から119のいずれか一項に記載の方法。
- 前記シミュレートされた環境を表示することが、
前記シミュレートされた環境内の前記第2のコンピュータシステムが前記第1の仮想ユーザインタフェースオブジェクトと相互作用しているとの判定に従って、前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して、前記第1の仮想ユーザインタフェースオブジェクトに視覚的に関連付けられた相互作用インジケータを表示することを含む、
請求項117から120のいずれか一項に記載の方法。 - 前記シミュレートされた環境を表示することが、
前記第1の仮想ユーザインタフェースオブジェクトとの前記第2のコンピュータシステムの前記相互作用がオブジェクト操作入力を含むとの判定に従って、前記オブジェクト操作入力に従って前記第1の仮想ユーザインタフェースオブジェクトの外観を変更することを含む、
請求項121に記載の方法。 - 前記オブジェクト操作入力に従って前記第1の仮想ユーザインタフェースオブジェクトの前記外観を変更することが、前記第1の仮想ユーザインタフェースオブジェクトに視覚的に関連付けられた前記相互作用インジケータの移動を表示することを含み、
前記相互作用インジケータの前記移動が、前記オブジェクト操作入力に対応する、
請求項122に記載の方法。 - 前記相互作用インジケータが、前記シミュレートされた環境内の前記第2のコンピュータシステムに対応する位置と前記第1の仮想ユーザインタフェースオブジェクトとの間の接続の視覚的インジケーションを含む、請求項121に記載の方法。
- 前記相互作用インジケータが、前記第1のユーザインタフェースオブジェクトとの相互作用点の視覚的インジケーションを含む、請求項121に記載の方法。
- 前記シミュレートされた環境を表示することが、
前記第1のコンピュータシステムを介して、前記第1の物理的環境内の第1の物理的基準オブジェクトを検出することと、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して表示された前記シミュレートされた環境内に、前記第1の物理的基準オブジェクトに対する位置に前記第1の仮想ユーザインタフェースオブジェクトを表示することと、
を含み、
前記方法が、前記第2のコンピュータシステムの前記閲覧視点の前記変化を検出したことに応じて、前記第1の物理的基準オブジェクトに対する前記相互作用インジケータの前記位置を更新することを含む、
請求項121に記載の方法。 - 前記第2のコンピュータシステムの前記第2の物理的環境が、前記第1のコンピュータシステムの前記第1の物理的環境とは別個であり、
前記第2のコンピュータシステムが、前記第2の物理的環境内の第2の物理的基準オブジェクトを検出し、
前記第2のコンピュータシステムの前記第2の表示生成コンポーネントを介して表示される前記シミュレートされた環境内で、前記第1の仮想ユーザインタフェースオブジェクトが、前記第1の物理的基準オブジェクトに対する前記第1の仮想ユーザインタフェースオブジェクトの位置に対応する、前記第2の物理的基準オブジェクトに対する前記位置に表示される、
請求項126に記載の方法。 - 前記第1のコンピュータシステムの前記第1の物理的環境が、前記第2のコンピュータシステムの前記第2の物理的環境の少なくとも一部分を含み、
前記第2のコンピュータシステムが、前記第1の表示生成コンポーネントを介して表示された前記シミュレートされた環境内に見える、
請求項117から126のいずれか一項に記載の方法。 - 前記第1の入力デバイスによって、遠隔デバイス視点入力を検出することと、
前記遠隔デバイス視点入力を検出したことに応じて、前記第1のコンピュータシステムの前記第1の物理的環境に対して向けられた前記シミュレートされた環境の表示を、前記第2のコンピュータシステムの前記第2の物理的環境に対して向けられた前記シミュレートされた環境の表示に置き換えることと、
を含む、請求項117から128のいずれか一項に記載の方法。 - 第1のコンピュータシステムであって、
第1の表示生成コンポーネントと、
1つ以上の第1の姿勢センサと、
第1の入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して、前記第1のコンピュータシステムの第1の物理的環境に対して向けられたシミュレートされた環境を表示することであって、前記シミュレートされた環境を表示することは、
前記第1のコンピュータシステムの前記第1の物理的環境に関連付けられた前記シミュレートされた環境内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトと、
前記シミュレートされた環境の第2のコンピュータシステムの閲覧視点の視覚的インジケーションであって、前記第2のコンピュータシステムが、第2の表示生成コンポーネント、1つ以上の第2の姿勢センサ、及び第2の入力デバイスを有し、前記第2のコンピュータシステムの前記第2の表示生成コンポーネントを介して、前記第2のコンピュータシステムの第2の物理的環境に対して向けられた前記シミュレートされた環境のビューを表示している、コンピュータシステムである、視覚的インジケーションと、
を同時に表示することを含む、
ことをし、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して前記シミュレートされた環境を表示している間に、前記第2のコンピュータシステムの前記第2の物理的環境に対する前記第2のコンピュータシステムの一部分の前記姿勢の変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の変化を検出し、
前記第2のコンピュータシステムの前記物理的環境に対する前記第2のコンピュータシステムの前記一部分の前記姿勢の前記変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化を検出したことに応じて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化に従って、前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して表示された前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションを更新する、
命令を含む、
第1のコンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、第1の表示生成コンポーネント、1つ以上の第1の姿勢センサ、及び第1の入力デバイスを備えた第1のコンピュータシステムによって実行されたときに、前記第1のコンピュータシステムに、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して、前記第1のコンピュータシステムの第1の物理的環境に対して向けられたシミュレートされた環境を表示することであって、前記シミュレートされた環境を表示することは、
前記第1のコンピュータシステムの前記第1の物理的環境に関連付けられた前記シミュレートされた環境内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトと、
前記シミュレートされた環境の第2のコンピュータシステムの閲覧視点の視覚的インジケーションであって、前記第2のコンピュータシステムが、第2の表示生成コンポーネント、1つ以上の第2の姿勢センサ、及び第2の入力デバイスを有し、前記第2のコンピュータシステムの前記第2の表示生成コンポーネントを介して、前記第2のコンピュータシステムの第2の物理的環境に対して向けられた前記シミュレートされた環境のビューを表示している、コンピュータシステムである、視覚的インジケーションと、
を同時に表示することを含む、
ことをさせ、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して前記シミュレートされた環境を表示している間に、前記第2のコンピュータシステムの前記第2の物理的環境に対する前記第2のコンピュータシステムの一部分の前記姿勢の変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の変化を検出させ、
前記第2のコンピュータシステムの前記物理的環境に対する前記第2のコンピュータシステムの前記一部分の前記姿勢の前記変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化を検出したことに応じて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化に従って、前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して表示された前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションを更新させる、
コンピュータ可読記憶媒体。 - 第1のコンピュータシステムであって、
第1の表示生成コンポーネントと、
1つ以上の第1の姿勢センサと、
第1の入力デバイスと、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して、前記第1のコンピュータシステムの第1の物理的環境に対して向けられたシミュレートされた環境を表示する手段であって、前記シミュレートされた環境を表示する前記手段が、
前記第1のコンピュータシステムの前記第1の物理的環境に関連付けられた前記シミュレートされた環境内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトと、
前記シミュレートされた環境の第2のコンピュータシステムの閲覧視点の視覚的インジケーションであって、前記第2のコンピュータシステムが、第2の表示生成コンポーネント、1つ以上の第2の姿勢センサ、及び第2の入力デバイスを有し、前記第2のコンピュータシステムの前記第2の表示生成コンポーネントを介して、前記第2のコンピュータシステムの第2の物理的環境に対して向けられた前記シミュレートされた環境のビューを表示している、コンピュータシステムである、視覚的インジケーションと、
を同時に表示する手段を含む、
手段と、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して前記シミュレートされた環境を表示している間に有効にされ、前記第2のコンピュータシステムの前記第2の物理的環境に対する前記第2のコンピュータシステムの一部分の前記姿勢の変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の変化を検出する手段と、
前記第2のコンピュータシステムの前記物理的環境に対する前記第2のコンピュータシステムの前記一部分の前記姿勢の前記変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化を検出したことに応じて有効にされ、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化に従って、前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して表示される前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションを更新する手段と、
を備える、第1のコンピュータシステム。 - 第1の表示生成コンポーネント、1つ以上の第1の姿勢センサ、及び第1の入力デバイスを備える電子デバイスで使用される情報処理装置であって、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して、前記第1のコンピュータシステムの第1の物理的環境に対して向けられたシミュレートされた環境を表示する手段であって、前記シミュレートされた環境を表示する前記手段が、
前記第1のコンピュータシステムの前記第1の物理的環境に関連付けられた前記シミュレートされた環境内の対応する位置に表示される仮想モデル内の第1の仮想ユーザインタフェースオブジェクトと、
前記シミュレートされた環境の第2のコンピュータシステムの閲覧視点の視覚的インジケーションであって、前記第2のコンピュータシステムが、第2の表示生成コンポーネント、1つ以上の第2の姿勢センサ、及び第2の入力デバイスを有し、前記第2のコンピュータシステムの前記第2の表示生成コンポーネントを介して、前記第2のコンピュータシステムの第2の物理的環境に対して向けられた前記シミュレートされた環境のビューを表示している、コンピュータシステムである、視覚的インジケーションと、
を同時に表示する手段を含む、
手段と、
前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して前記シミュレートされた環境を表示している間に有効にされ、前記第2のコンピュータシステムの前記第2の物理的環境に対する前記第2のコンピュータシステムの一部分の前記姿勢の変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の変化を検出する手段と、
前記第2のコンピュータシステムの前記物理的環境に対する前記第2のコンピュータシステムの前記一部分の前記姿勢の前記変化に基づいて、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化を検出したことに応じて有効にされ、前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記変化に従って、前記第1のコンピュータシステムの前記第1の表示生成コンポーネントを介して表示される前記シミュレートされた環境の前記第2のコンピュータシステムの前記閲覧視点の前記視覚的インジケーションを更新する手段と、
を備える、情報処理装置。 - 第1のコンピュータシステムであって、
第1の表示生成コンポーネントと、
1つ以上の第1の姿勢センサと、
第1の入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項117から129のいずれか一項に記載の方法を実行する命令を含む、
第1のコンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、第1の表示生成コンポーネント、1つ以上の第1の姿勢センサ、及び第1の入力デバイスを備えた第1のコンピュータシステムによって実行されたときに、前記第1のコンピュータシステムに、請求項117から129のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 第1の表示生成コンポーネント、1つ以上の第1の姿勢センサ、第1の入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えた第1のコンピュータシステムのグラフィカルユーザインタフェースであって、請求項117から129のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 第1の表示生成コンポーネントと、
1つ以上の第1の姿勢センサと、
第1の入力デバイスと、
請求項117から129のいずれか一項に記載の方法を実行する手段と、
を備える、第1のコンピュータシステム。 - 第1の表示生成コンポーネント、1つ以上の第1の姿勢センサ、及び第1の入力デバイスを備えた第1のコンピュータシステムで使用される情報処理装置であって、
請求項117から129のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、シミュレートされた環境を表示することと、
前記シミュレートされた環境を表示している間に、前記入力デバイスを介して、前記シミュレートされた環境内の対応する位置に向けられた第1の入力を検出することと、
前記シミュレートされた環境内の前記対応する位置に向けられた前記第1の入力を検出したことに応じて、
前記第1の入力が第1の入力形式であり、かつ前記第1の入力が前記シミュレートされた環境内の挿入カーソルの現在位置以外の前記シミュレートされた環境内の第1の位置で検出されたとの判定に従って、前記挿入カーソルを前記第1の位置に表示することと、
前記第1の入力が前記第1の入力形式であり、かつ前記第1の入力が前記挿入カーソルの前記現在位置に対応する前記シミュレートされた環境内の第2の位置で検出されたとの判定に従って、前記第2の位置に第1のオブジェクトを挿入し、前記挿入カーソルを前記第1のオブジェクト上にある第3の位置に移動させることと、
を含む、方法。 - 複数の連続する反復にわたって前記方法を繰り返し実行することを含み、
前記連続する反復の第1の反復では、前記第1の入力が前記第1のタイプであり、かつ前記シミュレートされた環境内の前記第1の位置で検出され、それに応じて、前記挿入カーソルが前記第1の位置に表示され、
前記連続する反復の第2の反復では、前記第1の入力が前記第1のタイプであり、かつ前記挿入点の前記現在位置に対応する前記シミュレートされた環境内の前記第2の位置で検出され、それに応じて、前記第1のオブジェクトが前記第2の位置に挿入され、前記挿入カーソルが前記第1のオブジェクト上にある前記第3の位置に移動される、
請求項139に記載の方法。 - 前記第1のオブジェクトが、前記挿入カーソルの前記現在位置に対応する前記第2の位置に隣接していない複数の非隣接側面を有し、
前記第1のオブジェクト上の前記第3の位置が、前記第2の位置に隣接していない前記複数の非隣接側面の対応する非隣接側面上にある、
請求項139又は140に記載の方法。 - 挿入カーソルの前記現在位置が既存のオブジェクトの対応する側面上に位置するとの判定に従って、前記第3の位置が、前記既存のオブジェクトの前記対応する側面に平行な前記第1のオブジェクトの第1の対応する側面上にある、請求項139から141のいずれか一項に記載の方法。
- 前記第1の位置が、前記既存のオブジェクトの第1の側面上にあり、前記第2の位置が、前記既存のオブジェクトの前記第1の側面とは異なる前記既存のオブジェクトの第2の側面上にある、請求項142に記載の方法。
- 前記シミュレートされた環境が、前記コンピュータシステムの物理的環境に対して向けられ、
前記第2の位置に前記第1のオブジェクトを挿入することが、前記コンピュータシステムの前記物理的環境内の対応する物理的基準オブジェクトの対応する位置に関連付けられた前記シミュレートされた環境内の位置に、前記シミュレートされた環境内に前記第1のオブジェクトを挿入することを含む、
請求項139から143のいずれか一項に記載の方法。 - 前記シミュレートされた環境内の前記対応する位置に向けられた前記第1の入力を検出したことに応じて、前記第1の入力が第2の入力形式であり、かつ前記挿入カーソルが前記シミュレートされた環境内の前記第2の位置に表示されているとの判定に従って、前記シミュレートされた環境内の前記第2の位置に前記第1のオブジェクトを挿入し、前記挿入カーソルを前記第1のオブジェクト上の前記第3の位置に移動させることを含む、
請求項139から144のいずれか一項に記載の方法。 - 前記第1のオブジェクトの第2の対応する側面の選択及び2次元での第2の入力の移動を含む前記第2の入力を検出することと、
2次元での前記第2の入力の移動を含む前記第2の入力を検出したことに応じて、
前記第2の入力が移動基準を満たすとの判定に従って、前記第2の入力の前記移動に基づいて決定された第1の方向に、前記第1のオブジェクトの前記選択された第2の対応する側面に平行な第1の平面内で、前記第1のオブジェクトを移動させることと、
前記第2の入力が移動基準を満たさないとの判定に従って、前記第1のオブジェクトを移動させることを控えることと、
を含む、請求項139から145のいずれか一項に記載の方法。 - 前記第1のオブジェクトの第3の対応する側面の選択及び2次元での第3の入力の移動を含む前記第3の入力を検出することと、
2次元での前記第3の入力の移動を含む前記第3の入力を検出したことに応じて、
前記第3の入力がサイズ変更基準を満たすとの判定に従って、前記第3の入力の前記移動に基づいて、前記第1のオブジェクトの前記選択された第3の対応する側面に垂直な軸に沿って前記第1のオブジェクトのサイズを調整することと、
前記第3の入力がサイズ変更基準を満たさないとの判定に従って、前記第1のオブジェクトの前記サイズを調整することを控えることと、
を含む、請求項139から146のいずれか一項に記載の方法。 - 前記第1のオブジェクトの第4の対応する側面の選択及び2次元での第4の入力の移動を含む前記第4の入力を検出し、
2次元での前記第2の入力の移動を含む前記第4の入力を検出したことに応じて、
前記接触がサイズ変更基準を満たすとの判定に従って、前記第4の入力の前記移動に基づいて、前記第1のオブジェクトのサイズを調整し、
前記接触がサイズ変更基準を満たさないとの判定に従って、前記第4の入力の前記移動に基づいて、前記第1のオブジェクトを移動させる、
請求項139から147のいずれか一項に記載の方法。 - 前記第4の入力の前記移動に基づいて前記第1のオブジェクトの前記サイズを調整することが、前記第1のオブジェクトの前記選択された第3の対応する側面に垂直な軸に沿って前記第1のオブジェクトの前記サイズを調整することを含む、請求項148に記載の方法。
- 前記第4の入力の前記移動に基づいて前記第1のオブジェクトを移動させることが、前記第2の入力の前記移動に基づいて決定された第1の方向に、前記第1のオブジェクトの前記選択された第2の対応する側面に平行な第1の平面内で、前記第1のオブジェクトを移動させることを含む、請求項148又は149に記載の方法。
- 前記第1のオブジェクトが表示されている間に、前記第1のオブジェクト上にある前記第3の位置に対応しない前記第1のオブジェクトの対応する部分上の第5の入力を検出することと、
前記第5の入力を検出したことに応じて、前記挿入カーソルを前記第3の位置から、前記第1のオブジェクトの前記対応する部分に対応する位置に移動させることと、
を含む、請求項139から150のいずれか一項に記載の方法。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、シミュレートされた環境を表示し、
前記シミュレートされた環境を表示している間に、前記入力デバイスを介して、前記シミュレートされた環境内の対応する位置に向けられた第1の入力を検出し、
前記シミュレートされた環境内の前記対応する位置に向けられた前記第1の入力を検出したことに応じて、
前記第1の入力が第1の入力形式であり、かつ前記第1の入力が前記シミュレートされた環境内の挿入カーソルの現在位置以外の前記シミュレートされた環境内の第1の位置で検出されたとの判定に従って、前記挿入カーソルを前記第1の位置に表示し、
前記第1の入力が前記第1の入力形式であり、かつ前記第1の入力が前記挿入カーソルの前記現在位置に対応する前記シミュレートされた環境内の第2の位置で検出されたとの判定に従って、前記第2の位置に第1のオブジェクトを挿入し、前記挿入カーソルを前記第1のオブジェクト上にある第3の位置に移動させる、
命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、シミュレートされた環境を表示させ、
前記シミュレートされた環境を表示している間に、前記入力デバイスを介して、前記シミュレートされた環境内の対応する位置に向けられた第1の入力を検出させ、
前記シミュレートされた環境内の前記対応する位置に向けられた前記第1の入力を検出したことに応じて、
前記第1の入力が第1の入力形式であり、かつ前記第1の入力が前記シミュレートされた環境内の挿入カーソルの現在位置以外の前記シミュレートされた環境内の第1の位置で検出されたとの判定に従って、前記挿入カーソルを前記第1の位置に表示させ、
前記第1の入力が前記第1の入力形式であり、かつ前記第1の入力が前記挿入カーソルの前記現在位置に対応する前記シミュレートされた環境内の第2の位置で検出されたとの判定に従って、前記第2の位置に第1のオブジェクトを挿入させ、前記挿入カーソルを前記第1のオブジェクト上にある第3の位置に移動させる、
コンピュータ可読記憶媒体。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
前記表示生成コンポーネントを介して、シミュレートされた環境を表示する手段と、
前記シミュレートされた環境を表示している間に、前記入力デバイスを介して、前記シミュレートされた環境内の対応する位置に向けられた第1の入力を検出するように有効にされる手段と、
前記シミュレートされた環境内の前記対応する位置に向けられた前記第1の入力を検出したことに応じて、
前記第1の入力が第1の入力形式であり、かつ前記第1の入力が前記シミュレートされた環境内の挿入カーソルの現在位置以外の前記シミュレートされた環境内の第1の位置で検出されたとの判定に従って、前記挿入カーソルを前記第1の位置に表示し、
前記第1の入力が前記第1の入力形式であり、かつ前記第1の入力が前記挿入カーソルの前記現在位置に対応する前記シミュレートされた環境内の第2の位置で検出されたとの判定に従って、前記第2の位置に第1のオブジェクトを挿入し、前記挿入カーソルを前記第1のオブジェクト上にある第3の位置に移動させる、
ように有効にされる手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えた電子デバイスで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、シミュレートされた環境を表示する手段と、
前記シミュレートされた環境を表示している間に、前記入力デバイスを介して、前記シミュレートされた環境内の対応する位置に向けられた第1の入力を検出するように有効にされる手段と、
前記シミュレートされた環境内の前記対応する位置に向けられた前記第1の入力を検出したことに応じて、
前記第1の入力が第1の入力形式であり、かつ前記第1の入力が前記シミュレートされた環境内の挿入カーソルの現在位置以外の前記シミュレートされた環境内の第1の位置で検出されたとの判定に従って、前記挿入カーソルを前記第1の位置に表示し、
前記第1の入力が前記第1の入力形式であり、かつ前記第1の入力が前記挿入カーソルの前記現在位置に対応する前記シミュレートされた環境内の第2の位置で検出されたとの判定に従って、前記第2の位置に第1のオブジェクトを挿入し、前記挿入カーソルを前記第1のオブジェクト上にある第3の位置に移動させる、
ように有効にされる手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項139から151のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項139から151のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、1つ以上の姿勢センサ、入力デバイス、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項139から151のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
1つ以上の姿勢センサと、
入力デバイスと、
請求項139から151のいずれか一項に記載の方法を実行する手段と、
を備える、
コンピュータシステム。 - 表示生成コンポーネント、1つ以上の姿勢センサ、及び入力デバイスを備えたコンピュータシステムで使用される情報処理装置であって、
請求項139から151のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。 - 表示生成コンポーネント、1つ以上のカメラ、及び1つ以上の姿勢センサを有するコンピュータシステムにおいて、
前記表示生成コンポーネントを介して、拡張現実環境を表示することであって、前記拡張現実環境を表示することは、
物理的オブジェクトを含み、かつ前記1つ以上のカメラの視野のコンテンツが変化するにつれて更新される、前記1つ以上のカメラの前記視野の少なくとも一部分の表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある仮想ユーザインタフェースオブジェクトであって、前記1つ以上のカメラの前記視野の前記表現内の前記仮想ユーザインタフェースオブジェクトの前記対応する位置が、前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の固定された空間的関係に基づいて決定される、仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
ことと、
前記拡張現実環境を表示している間に、前記1つ以上の姿勢センサを介して、前記コンピュータシステムの物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出することと、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することであって、
前記拡張現実環境が非安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づく第1の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の前記固定された空間を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含み、
前記拡張現実環境が安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づき、かつ前記第1の調整量未満の第2の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の前記固定された空間的関係を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含む、ことと、
を含む、方法。 - 前記コンピュータシステムの前記一部分の姿勢の前記第1の変化が検出されたときに、前記拡張現実環境が前記非安定動作モードで表示されていたときに、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新した後に、
前記ディスプレイ上の前記仮想ユーザインタフェースオブジェクトを安定化させる要求を受信し、
前記ディスプレイ上の前記仮想ユーザインタフェースオブジェクトを安定化させる前記要求に応じて、前記拡張現実環境に対する安定動作モードに入り、
前記拡張現実環境に対する前記安定動作モードにある間に、
前記1つ以上の向きセンサを介して、前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の変化を検出し、
前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記第2の変化に従って前記拡張現実環境を更新することであって、
前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の変化の量未満だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野内に含まれる前記物理的オブジェクトの前記表現との間の前記固定された空間的関係を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトを更新することと、
を含む、
ことをする、
請求項161に記載の方法。 - 前記コンピュータシステムが、入力デバイスを含み、
前記ディスプレイ上の前記仮想ユーザインタフェースオブジェクトを安定化させる前記要求が、前記拡張現実環境の少なくとも一部分をズームするための、前記入力デバイスを介して受信される入力を含む、
請求項162に記載の方法。 - 前記ディスプレイ上の前記仮想ユーザインタフェースオブジェクトを安定化させる前記要求が前記表示された拡張現実環境の前記一部分をズームするための前記入力を含む、前記ディスプレイ上の前記仮想ユーザインタフェースオブジェクトを安定化させる前記要求に応じて、前記表示された拡張現実環境の前記一部分をズームするための前記入力の前記大きさに従って、前記仮想ユーザインタフェースオブジェクトを再レンダリングすることを含む、
請求項163に記載の方法。 - 前記物理的オブジェクトが、前記表示された拡張現実環境内で前記仮想ユーザインタフェースオブジェクトによって置き換えられる、請求項161から164のいずれか一項に記載の方法。
- 前記拡張現実環境が前記安定動作モードで表示されている間に、前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第1の対応する変化を検出することと、
前記拡張現実環境が前記安定動作モードで表示されている間に、前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の対応する変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記対応する変化に従って、前記拡張現実環境を更新することであって、前記仮想ユーザインタフェースオブジェクトの前記更新された対応する位置が前記1つ以上のカメラの前記視野を越えて延びるとの判定に従って、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することは、前記1つ以上のカメラの前記視野を越えて延びる前記仮想ユーザインタフェースオブジェクトの前記一部分に対応する前記拡張現実環境内の対応する位置に、プレースホルダ画像を表示することを含む、ことと、
を含む、請求項161から165のいずれか一項に記載の方法。 - 前記拡張現実環境が前記安定動作モードで表示されている間に、前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の第2の対応する変化を検出することと、
前記拡張現実環境が前記安定動作モードで表示されている間に、前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第2の対応する変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記対応する変化に従って、前記拡張現実環境を更新することであって、前記仮想ユーザインタフェースオブジェクトの前記更新された対応する位置が前記1つ以上のカメラの前記視野を越えて延びるとの判定に従って、前記仮想ユーザインタフェースオブジェクトの少なくとも一部分を表示することを停止することを含む、ことと、
を含む、請求項161から165のいずれか一項に記載の方法。 - 前記拡張現実環境が前記安定動作モードで表示されている間に、前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記対応する変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記対応する変化に従って、前記拡張現実環境を更新することが、
前記仮想ユーザインタフェースオブジェクトの前記更新された対応する位置が前記1つ以上のカメラの前記視野を越えて延びるとの判定に従って、前記表示された拡張現実環境をズームして、前記表示された仮想ユーザインタフェースオブジェクトの一部分を増大させることと、
前記仮想ユーザインタフェースオブジェクトの前記更新された対応する位置が前記1つ以上のカメラの前記視野を越えて延びないとの判定に従って、前記表示された拡張現実環境をズームすることなく、前記仮想ユーザインタフェースオブジェクトを移動させることと、
を含む、
ことを含む、請求項161から165のいずれか一項に記載の方法。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
1つ以上の姿勢センサと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
前記表示生成コンポーネントを介して、拡張現実環境を表示することであって、前記拡張現実環境を表示することは、
物理的オブジェクトを含み、かつ前記1つ以上のカメラの視野のコンテンツが変化するにつれて更新される、前記1つ以上のカメラの前記視野の少なくとも一部分の表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある仮想ユーザインタフェースオブジェクトであって、前記1つ以上のカメラの前記視野の前記表現内の前記仮想ユーザインタフェースオブジェクトの前記対応する位置が、前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の固定された空間的関係に基づいて決定される、仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
ことをし、
前記拡張現実環境を表示している間に、前記1つ以上の姿勢センサを介して、前記コンピュータシステムの物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出し、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することであって、
前記拡張現実環境が非安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づく第1の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の前記固定された空間を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含み、
前記拡張現実環境が安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づき、かつ前記第1の調整量未満の第2の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含む、
ことをする、
命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び1つ以上の姿勢センサを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
前記表示生成コンポーネントを介して、拡張現実環境を表示することであって、前記拡張現実環境を表示することは、
物理的オブジェクトを含み、かつ前記1つ以上のカメラの視野のコンテンツが変化するにつれて更新される、前記1つ以上のカメラの前記視野の少なくとも一部分の表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある仮想ユーザインタフェースオブジェクトであって、前記1つ以上のカメラの前記視野の前記表現内の前記仮想ユーザインタフェースオブジェクトの前記対応する位置が、前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の固定された空間的関係に基づいて決定される、仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
ことをさせ、
前記拡張現実環境を表示している間に、前記1つ以上の姿勢センサを介して、前記コンピュータシステムの物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出させ、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することであって、
前記拡張現実環境が非安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づく第1の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の前記固定された空間を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含み、
前記拡張現実環境が安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づき、かつ前記第1の調整量未満の第2の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含む、
ことをさせる、
コンピュータ可読記憶媒体。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
1つ以上の姿勢センサと、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示することは、
物理的オブジェクトを含み、かつ前記1つ以上のカメラの視野のコンテンツが変化するにつれて更新される、前記1つ以上のカメラの前記視野の少なくとも一部分の表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある仮想ユーザインタフェースオブジェクトであって、前記1つ以上のカメラの前記視野の前記表現内の前記仮想ユーザインタフェースオブジェクトの前記対応する位置が、前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の固定された空間的関係に基づいて決定される、仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
手段と、
前記拡張現実環境を表示している間に、前記1つ以上の姿勢センサを介して、前記コンピュータシステムの物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出するように有効にされる手段と、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って、前記拡張現実環境を更新するように有効にされる手段であって、
前記拡張現実環境が非安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づく第1の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の前記固定された空間を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含み、
前記拡張現実環境が安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づき、かつ前記第1の調整量未満の第2の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含む、
手段と、
を備える、
コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び1つ以上の姿勢センサを備えた電子デバイスで使用される情報処理装置であって、
前記表示生成コンポーネントを介して、拡張現実環境を表示する手段であって、前記拡張現実環境を表示することは、
物理的オブジェクトを含み、かつ前記1つ以上のカメラの視野のコンテンツが変化するにつれて更新される、前記1つ以上のカメラの前記視野の少なくとも一部分の表現と、
前記1つ以上のカメラの前記視野の前記表現内の対応する位置にある仮想ユーザインタフェースオブジェクトであって、前記1つ以上のカメラの前記視野の前記表現内の前記仮想ユーザインタフェースオブジェクトの前記対応する位置が、前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の固定された空間的関係に基づいて決定される、仮想ユーザインタフェースオブジェクトと、
を同時に表示することを含む、
手段と、
前記拡張現実環境を表示している間に、前記1つ以上の姿勢センサを介して、前記コンピュータシステムの物理的環境に対する前記コンピュータシステムの少なくとも一部分の姿勢の第1の変化を検出するように有効にされる手段と、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化を検出したことに応じて、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って、前記拡張現実環境を更新するように有効にされる手段であって、
前記拡張現実環境が非安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づく第1の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
前記仮想ユーザインタフェースオブジェクトと前記1つ以上のカメラの前記視野の前記表現に含まれる前記物理的オブジェクトとの間の前記固定された空間を維持するように選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含み、
前記拡張現実環境が安定動作モードで表示されているとの判定に従って、前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に従って前記拡張現実環境を更新することは、
前記コンピュータシステムの前記物理的環境に対する前記コンピュータシステムの前記一部分の姿勢の前記第1の変化に基づき、かつ前記第1の調整量未満の第2の調整量だけ、前記1つ以上のカメラの前記視野の前記一部分の前記表現を更新することと、
選択された位置に、前記仮想ユーザインタフェースオブジェクトの前記対応する位置を更新することと、
を含む、
手段と、
を備える、情報処理装置。 - コンピュータシステムであって、
表示生成コンポーネントと、
1つ以上のカメラと、
1つ以上の姿勢センサと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項161から168のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。 - 1つ以上のプログラムを記憶したコンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、表示生成コンポーネント、1つ以上のカメラ、及び1つ以上の姿勢センサを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項161から168のいずれか一項に記載の方法を実行させる、コンピュータ可読記憶媒体。
- 表示生成コンポーネント、1つ以上のカメラ、1つ以上の姿勢センサ、メモリ、及び前記メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを備えたコンピュータシステムのグラフィカルユーザインタフェースであって、請求項161から168のいずれか一項に記載の方法に従って表示されるユーザインタフェースを備える、グラフィカルユーザインタフェース。
- 表示生成コンポーネントと、
1つ以上のカメラと、
1つ以上の姿勢センサと、
請求項161から168のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。 - 表示生成コンポーネント、1つ以上のカメラ、及び1つ以上の姿勢センサを備えたコンピュータシステムで使用される情報処理装置であって、
請求項161から168のいずれか一項に記載の方法を実行する手段を備える、
情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021158281A JP7324813B2 (ja) | 2017-08-31 | 2021-09-28 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
JP2023124668A JP2023159124A (ja) | 2017-08-31 | 2023-07-31 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762553063P | 2017-08-31 | 2017-08-31 | |
US62/553,063 | 2017-08-31 | ||
US201762564984P | 2017-09-28 | 2017-09-28 | |
US62/564,984 | 2017-09-28 | ||
DKPA201870548 | 2018-08-23 | ||
DKPA201870548A DK180470B1 (en) | 2017-08-31 | 2018-08-23 | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
US16/116,276 | 2018-08-29 | ||
US16/116,276 US11163417B2 (en) | 2017-08-31 | 2018-08-29 | Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments |
PCT/US2018/048884 WO2019046597A1 (en) | 2017-08-31 | 2018-08-30 | GRAPHIC USER SYSTEMS, METHODS AND INTERFACES FOR INTERACTING WITH ENHANCED AND VIRTUAL REALITY ENVIRONMENTS |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021158281A Division JP7324813B2 (ja) | 2017-08-31 | 2021-09-28 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020531985A true JP2020531985A (ja) | 2020-11-05 |
JP6952877B2 JP6952877B2 (ja) | 2021-10-27 |
Family
ID=63586978
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020509514A Active JP6952877B2 (ja) | 2017-08-31 | 2018-08-30 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
JP2021158281A Active JP7324813B2 (ja) | 2017-08-31 | 2021-09-28 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
JP2023124668A Pending JP2023159124A (ja) | 2017-08-31 | 2023-07-31 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021158281A Active JP7324813B2 (ja) | 2017-08-31 | 2021-09-28 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
JP2023124668A Pending JP2023159124A (ja) | 2017-08-31 | 2023-07-31 | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース |
Country Status (7)
Country | Link |
---|---|
US (3) | US11163417B2 (ja) |
EP (2) | EP4350622A2 (ja) |
JP (3) | JP6952877B2 (ja) |
KR (4) | KR102540163B1 (ja) |
CN (3) | CN112034988B (ja) |
AU (4) | AU2018101226B4 (ja) |
DK (1) | DK180470B1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7082698B1 (ja) | 2021-02-18 | 2022-06-08 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7086242B1 (ja) | 2021-02-18 | 2022-06-17 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20220311950A1 (en) * | 2021-03-25 | 2022-09-29 | Microsoft Technology Licensing, Llc | Systems and methods for placing annotations in an augmented reality environment using a center-locked interface |
Families Citing this family (137)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100146395A1 (en) * | 2008-12-08 | 2010-06-10 | Gustavo De Los Reyes | Method and System for Exploiting Interactions Via A Virtual Environment |
US9589000B2 (en) * | 2012-08-30 | 2017-03-07 | Atheer, Inc. | Method and apparatus for content association and history tracking in virtual and augmented reality |
EP3316222B1 (en) * | 2016-11-01 | 2020-07-01 | Previble AB | Pre-visualization device |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
US10300373B2 (en) * | 2017-09-08 | 2019-05-28 | Niantic, Inc. | Methods and systems for generating detailed datasets of an environment via gameplay |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
US11099708B2 (en) * | 2017-12-15 | 2021-08-24 | Hewlett-Packard Development Company, L.P. | Patterns for locations on three-dimensional objects |
US11148046B2 (en) * | 2018-01-16 | 2021-10-19 | Vr Leo Usa, Inc. | Chip structure of VR self-service game joy stick |
DK201870346A1 (en) | 2018-01-24 | 2019-09-12 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
US10275919B1 (en) * | 2018-02-06 | 2019-04-30 | International Business Machines Corporation | Preventing transition shocks during transitions between realities |
JP6959529B2 (ja) * | 2018-02-20 | 2021-11-02 | 富士通株式会社 | 入力情報管理プログラム、入力情報管理方法、および情報処理装置 |
US20190259201A1 (en) * | 2018-02-21 | 2019-08-22 | Tsunami VR, Inc. | Systems and methods for generating or selecting different lighting data for a virtual object |
US10902680B2 (en) * | 2018-04-03 | 2021-01-26 | Saeed Eslami | Augmented reality application system and method |
US10837788B1 (en) | 2018-05-03 | 2020-11-17 | Zoox, Inc. | Techniques for identifying vehicles and persons |
US10809081B1 (en) | 2018-05-03 | 2020-10-20 | Zoox, Inc. | User interface and augmented reality for identifying vehicles and persons |
US11846514B1 (en) * | 2018-05-03 | 2023-12-19 | Zoox, Inc. | User interface and augmented reality for representing vehicles and persons |
DK201870350A1 (en) | 2018-05-07 | 2019-12-05 | Apple Inc. | Devices and Methods for Measuring Using Augmented Reality |
US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10818093B2 (en) * | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US11195336B2 (en) | 2018-06-08 | 2021-12-07 | Vulcan Inc. | Framework for augmented reality applications |
KR20190140657A (ko) * | 2018-06-12 | 2019-12-20 | 삼성전자주식회사 | 오브젝트를 생성하는 전자장치 및 시스템 |
US10919522B2 (en) * | 2018-06-13 | 2021-02-16 | Fujitsu Limited | Automated exploitation of shade-giving structures |
US11086124B2 (en) | 2018-06-13 | 2021-08-10 | Reavire, Inc. | Detecting velocity state of a device |
US10880533B2 (en) * | 2018-06-25 | 2020-12-29 | Canon Kabushiki Kaisha | Image generation apparatus, image generation method, and storage medium, for generating a virtual viewpoint image |
US10996831B2 (en) * | 2018-06-29 | 2021-05-04 | Vulcan Inc. | Augmented reality cursors |
EP3614244B1 (en) * | 2018-06-29 | 2023-07-12 | Shenzhen Goodix Technology Co., Ltd. | Touch screen adjustment method, touch chip and electronic terminal |
US10909772B2 (en) | 2018-07-31 | 2021-02-02 | Splunk Inc. | Precise scaling of virtual objects in an extended reality environment |
US10692299B2 (en) | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
US10748344B2 (en) * | 2018-09-12 | 2020-08-18 | Seiko Epson Corporation | Methods and devices for user interaction in augmented reality |
US10956613B2 (en) * | 2018-09-12 | 2021-03-23 | Lenovo (Singapore) Pte. Ltd. | Sensitive information filter |
US11538205B2 (en) * | 2018-09-19 | 2022-12-27 | Chegg, Inc. | Augmented reality mathematics in learning platforms |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
KR102627014B1 (ko) * | 2018-10-02 | 2024-01-19 | 삼성전자 주식회사 | 전자 장치 및 제스처 인식 방법 |
KR102620702B1 (ko) * | 2018-10-12 | 2024-01-04 | 삼성전자주식회사 | 모바일 장치 및 모바일 장치의 제어 방법 |
US11120632B2 (en) * | 2018-10-16 | 2021-09-14 | Sony Interactive Entertainment Inc. | Image generating apparatus, image generating system, image generating method, and program |
USD950574S1 (en) * | 2018-10-23 | 2022-05-03 | Capital One Services, Llc | Scanning device or portion thereof with a scanning user interface |
JP2020086700A (ja) * | 2018-11-20 | 2020-06-04 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び、表示装置 |
CN109782901A (zh) * | 2018-12-06 | 2019-05-21 | 网易(杭州)网络有限公司 | 增强现实交互方法、装置、计算机设备及存储介质 |
US11610355B1 (en) * | 2019-01-23 | 2023-03-21 | Jennifer Francis | Interactive augmented reality (AR) entertainment hub |
US10783714B2 (en) * | 2019-01-29 | 2020-09-22 | Verizon Patent And Licensing Inc. | Methods and systems for automatically tailoring a form of an extended reality overlay object |
US10909751B2 (en) * | 2019-01-31 | 2021-02-02 | Intel Corporation | Methods and apparatus to transition between 2D and 3D renderings of augmented reality content |
US11150788B2 (en) | 2019-03-14 | 2021-10-19 | Ebay Inc. | Augmented or virtual reality (AR/VR) companion device techniques |
US10890992B2 (en) | 2019-03-14 | 2021-01-12 | Ebay Inc. | Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces |
WO2020201998A1 (en) * | 2019-04-03 | 2020-10-08 | Purple Tambourine Limited | Transitioning between an augmented reality scene and a virtual reality representation |
US11055919B2 (en) * | 2019-04-26 | 2021-07-06 | Google Llc | Managing content in augmented reality |
US11151792B2 (en) | 2019-04-26 | 2021-10-19 | Google Llc | System and method for creating persistent mappings in augmented reality |
CN110109726B (zh) * | 2019-04-30 | 2022-08-23 | 网易(杭州)网络有限公司 | 虚拟对象的接收处理方法及传输方法、装置和存储介质 |
US11138798B2 (en) * | 2019-05-06 | 2021-10-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying objects in 3D contexts |
GB2583936B (en) * | 2019-05-14 | 2023-08-30 | Bentley Motors Ltd | Virtual reality head mounted display system calibration methods and apparatus |
US11164395B2 (en) | 2019-05-15 | 2021-11-02 | Microsoft Technology Licensing, Llc | Structure switching in a three-dimensional environment |
US11087560B2 (en) | 2019-05-15 | 2021-08-10 | Microsoft Technology Licensing, Llc | Normalization of objects for a 3D environment within an authoring application |
US11030822B2 (en) | 2019-05-15 | 2021-06-08 | Microsoft Technology Licensing, Llc | Content indicators in a 3D environment authoring application |
US11287947B2 (en) | 2019-05-15 | 2022-03-29 | Microsoft Technology Licensing, Llc | Contextual input in a three-dimensional environment |
US11039061B2 (en) * | 2019-05-15 | 2021-06-15 | Microsoft Technology Licensing, Llc | Content assistance in a three-dimensional environment |
US10726630B1 (en) * | 2019-06-28 | 2020-07-28 | Capital One Services, Llc | Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality |
US10885716B1 (en) * | 2019-07-01 | 2021-01-05 | Microsoft Technology Licensing, Llc | Mixed reality system user interface placement |
US11941762B2 (en) | 2019-07-15 | 2024-03-26 | Samsung Electronics Co., Ltd. | System and method for augmented reality scenes |
JP2021018546A (ja) * | 2019-07-18 | 2021-02-15 | トヨタ自動車株式会社 | 車両用コミュニケーション装置および車両用コミュニケーションシステム |
US11385789B1 (en) * | 2019-07-23 | 2022-07-12 | Facebook Technologies, Llc | Systems and methods for interacting with displayed items |
CN110658945A (zh) * | 2019-08-08 | 2020-01-07 | 上海红星美凯龙设计云信息科技有限公司 | 多点触控设备的角度及位置获取驱动系统及方法 |
JP6726345B1 (ja) * | 2019-08-30 | 2020-07-22 | 株式会社コロプラ | プログラム、方法、および端末装置 |
JP7385733B2 (ja) * | 2019-09-09 | 2023-11-22 | アップル インコーポレイテッド | 仮想カメラと物理的カメラとの位置同期 |
US11340756B2 (en) | 2019-09-27 | 2022-05-24 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11227446B2 (en) | 2019-09-27 | 2022-01-18 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
US11175730B2 (en) * | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
TWI744737B (zh) * | 2019-12-11 | 2021-11-01 | 中華電信股份有限公司 | 擴增實境之內容控制系統、方法及電腦可讀儲存媒介 |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
US11481930B2 (en) * | 2020-01-21 | 2022-10-25 | Trimble Inc. | Accurately positioning augmented reality models within images |
KR20210098130A (ko) * | 2020-01-31 | 2021-08-10 | 한국전자통신연구원 | 현실 객체와의 상호 작용을 이용한 다중 사용자 참여 기반의 증강현실 제공 방법 및 이를 위한 장치 |
US11003308B1 (en) | 2020-02-03 | 2021-05-11 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
US11263818B2 (en) * | 2020-02-24 | 2022-03-01 | Palo Alto Research Center Incorporated | Augmented reality system using visual object recognition and stored geometry to create and render virtual objects |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11960651B2 (en) * | 2020-03-30 | 2024-04-16 | Snap Inc. | Gesture-based shared AR session creation |
US11176752B1 (en) * | 2020-03-31 | 2021-11-16 | Amazon Technologies, Inc. | Visualization of a three-dimensional (3D) model in augmented reality (AR) |
US20210326594A1 (en) * | 2020-04-17 | 2021-10-21 | James Patrick COSTELLO | Computer-generated supplemental content for video |
US11199940B1 (en) * | 2020-04-21 | 2021-12-14 | Corel Corporation | Three-dimensional operations based on planar projections in graphic user interfaces |
CN111429553B (zh) * | 2020-04-22 | 2024-03-29 | 同济大学建筑设计研究院(集团)有限公司 | 动画预览方法、装置、计算机设备和存储介质 |
US11120639B1 (en) | 2020-04-24 | 2021-09-14 | Microsoft Technology Licensing, Llc | Projecting telemetry data to visualization models |
KR20210137826A (ko) | 2020-05-11 | 2021-11-18 | 삼성전자주식회사 | 증강현실 생성장치, 증강현실 표시장치 및 증강현실 시스템 |
KR102214338B1 (ko) * | 2020-05-25 | 2021-02-10 | 조광희 | 증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램 |
CN111583421A (zh) * | 2020-06-03 | 2020-08-25 | 浙江商汤科技开发有限公司 | 确定展示动画的方法、装置、电子设备及存储介质 |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
JP6801138B1 (ja) * | 2020-07-16 | 2020-12-16 | 株式会社バーチャルキャスト | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
US11861798B2 (en) * | 2020-07-24 | 2024-01-02 | Stephen Wilkes | Reactive augmented reality |
US11908159B2 (en) * | 2020-07-27 | 2024-02-20 | Shopify Inc. | Systems and methods for representing user interactions in multi-user augmented reality |
US11527045B2 (en) | 2020-07-27 | 2022-12-13 | Shopify Inc. | Systems and methods for generating multi-user augmented reality content |
KR20220021757A (ko) | 2020-08-14 | 2022-02-22 | 삼성전자주식회사 | 무선 통신 시스템에서 증강 현실 서비스를 위한 방법 및 장치 |
CN112148120A (zh) * | 2020-08-18 | 2020-12-29 | 华为技术有限公司 | 一种显示虚拟界面的方法、设备以及存储介质 |
US20220070240A1 (en) * | 2020-08-28 | 2022-03-03 | Tmrw Foundation Ip S. À R.L. | Ad hoc virtual communication between approaching user graphical representations |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11670144B2 (en) * | 2020-09-14 | 2023-06-06 | Apple Inc. | User interfaces for indicating distance |
US11615596B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
US11567625B2 (en) | 2020-09-24 | 2023-01-31 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
KR20220046356A (ko) * | 2020-10-07 | 2022-04-14 | 삼성전자주식회사 | 이동 통신 시스템에서 컨텐츠를 렌더링하는 방법 및 장치 |
US11727643B1 (en) | 2020-10-16 | 2023-08-15 | Splunk Inc. | Multi-environment networked remote collaboration system |
US11127223B1 (en) | 2020-10-16 | 2021-09-21 | Splunkinc. | Mesh updates via mesh splitting |
US11544904B1 (en) | 2020-10-16 | 2023-01-03 | Splunk Inc. | Mesh updates in an extended reality environment |
US11563813B1 (en) | 2020-10-16 | 2023-01-24 | Splunk Inc. | Presentation of collaboration environments for a networked remote collaboration session |
US11776218B1 (en) | 2020-10-16 | 2023-10-03 | Splunk Inc. | Networked remote collaboration system |
US11798235B1 (en) * | 2020-10-16 | 2023-10-24 | Splunk Inc. | Interactions in networked remote collaboration environments |
US11899658B1 (en) * | 2020-10-16 | 2024-02-13 | Splunk Inc. | Codeless anchor detection for aggregate anchors |
US11551421B1 (en) | 2020-10-16 | 2023-01-10 | Splunk Inc. | Mesh updates via mesh frustum cutting |
US11546437B1 (en) | 2020-10-16 | 2023-01-03 | Splunk Inc. | Playback of a stored networked remote collaboration session |
US11854230B2 (en) * | 2020-12-01 | 2023-12-26 | Meta Platforms Technologies, Llc | Physical keyboard tracking |
WO2022119759A1 (en) * | 2020-12-04 | 2022-06-09 | Magic Leap, Inc. | Miscalibration detection for virtual reality and augmented reality systems |
US20220198764A1 (en) * | 2020-12-18 | 2022-06-23 | Arkh, Inc. | Spatially Aware Environment Relocalization |
US11867904B2 (en) * | 2020-12-18 | 2024-01-09 | Samsung Electronics Co., Ltd. | Method and electronic device for providing augmented reality environment |
CN112684885B (zh) * | 2020-12-25 | 2023-05-02 | 联想(北京)有限公司 | 一种显示控制方法及装置 |
KR20220094988A (ko) * | 2020-12-29 | 2022-07-06 | 삼성전자주식회사 | 증강 현실, 가상 현실, 혼합 현실 및 확장 현실 서비스를 제공하기 위한 장치 및 방법 |
US11561669B2 (en) * | 2021-01-08 | 2023-01-24 | Ford Global Technologies, Llc | Systems and methods of using a digital twin for interacting with a city model |
US20220229535A1 (en) * | 2021-01-19 | 2022-07-21 | Samsung Electronics Company, Ltd. | Systems and Methods for Manipulating Views and Shared Objects in XR Space |
CN112967404A (zh) * | 2021-02-24 | 2021-06-15 | 深圳市慧鲤科技有限公司 | 控制虚拟对象移动的方法、装置、电子设备及存储介质 |
US11727657B2 (en) | 2021-04-09 | 2023-08-15 | Carvana, LLC | Systems and methods for rendering a portion of a 3D display |
US11810262B2 (en) | 2021-04-09 | 2023-11-07 | Carvana, LLC | Systems and methods for rotating a 3D display |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
CN113426117B (zh) * | 2021-06-23 | 2024-03-01 | 网易(杭州)网络有限公司 | 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质 |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
US20230040610A1 (en) * | 2021-08-06 | 2023-02-09 | Apple Inc. | Object placement for electronic devices |
CN113721804A (zh) * | 2021-08-20 | 2021-11-30 | 北京市商汤科技开发有限公司 | 一种显示方法、装置、电子设备及计算机可读存储介质 |
US20230087202A1 (en) * | 2021-09-17 | 2023-03-23 | Ford Global Technologies, Llc | Augmented Reality And Touch-Based User Engagement Parking Assist |
CN113867568B (zh) * | 2021-09-29 | 2023-10-13 | 四川长虹教育科技有限公司 | 红外交互大屏动态检测修复红外触摸的方法 |
USD1021939S1 (en) * | 2021-10-13 | 2024-04-09 | Degussa Bank AG | Display screen with financial institution navigation interface |
USD1021940S1 (en) * | 2021-10-13 | 2024-04-09 | Degussa Bank AG | Display screen with financial institution communication interface |
USD1018580S1 (en) * | 2021-10-13 | 2024-03-19 | Degussa Bank AG | Display screen with financial institution graphical user interface |
US20230137265A1 (en) * | 2021-10-31 | 2023-05-04 | Zoom Video Communications, Inc. | Dynamic camera views in a virtual environment |
KR20230069433A (ko) * | 2021-11-12 | 2023-05-19 | 삼성전자주식회사 | Ar 이미지의 휘도를 제어하는 방법 및 장치 |
WO2023092375A1 (en) * | 2021-11-25 | 2023-06-01 | Citrix Systems, Inc. | Computing device with live background and related method |
CN114373064A (zh) * | 2021-12-14 | 2022-04-19 | 聚好看科技股份有限公司 | 一种vrar内容编辑方法、装置、设备及介质 |
US20230199014A1 (en) * | 2021-12-16 | 2023-06-22 | International Business Machines Corporation | Dark pattern detection and mitigation |
WO2023153607A1 (ko) * | 2022-02-10 | 2023-08-17 | 삼성전자주식회사 | 주변 조도에 기초한 ar 컨텐츠 표시 방법 및 전자 장치 |
US11775132B1 (en) | 2022-05-18 | 2023-10-03 | Environments by LE, Inc. | System and method for the management and use of building systems, facilities, and amenities using internet of things devices and a metaverse representation |
CN114839782B (zh) * | 2022-06-07 | 2023-08-18 | 上汽大众汽车有限公司 | 一种用于车辆控制与信息显示的车载增强显示系统 |
CN114780012B (zh) * | 2022-06-21 | 2023-06-20 | 荣耀终端有限公司 | 电子设备的锁屏壁纸的显示方法和相关装置 |
CN115421590B (zh) * | 2022-08-15 | 2023-05-12 | 珠海视熙科技有限公司 | 一种手势控制方法、存储介质及摄像设备 |
CN115690375B (zh) * | 2023-01-05 | 2023-04-07 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于虚拟现实技术的建筑模型修改交互方法、系统及终端 |
CN116303697B (zh) * | 2023-05-18 | 2023-08-08 | 深圳鹏锐信息技术股份有限公司 | 一种基于人工智能的模型展示系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012058979A (ja) * | 2010-09-08 | 2012-03-22 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法 |
JP2012212345A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 端末装置、オブジェクト制御方法及びプログラム |
WO2013118373A1 (ja) * | 2012-02-10 | 2013-08-15 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2014522054A (ja) * | 2011-08-02 | 2014-08-28 | マイクロソフト コーポレーション | 選択及び再配置するクロススライドジェスチャ |
JP2015212946A (ja) * | 2014-05-05 | 2015-11-26 | イマージョン コーポレーションImmersion Corporation | ビューポートベースの拡張現実感触覚効果のためのシステムおよび方法 |
JP2016038867A (ja) * | 2014-08-11 | 2016-03-22 | 株式会社大林組 | 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム |
Family Cites Families (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09106412A (ja) * | 1995-10-12 | 1997-04-22 | Sekisui House Ltd | Cg画像による建築物の照明状態切換表示方法 |
JP3761106B2 (ja) | 1996-03-04 | 2006-03-29 | シャープ株式会社 | 倍率設定装置を備えた画像形成装置 |
US6426745B1 (en) | 1997-04-28 | 2002-07-30 | Computer Associates Think, Inc. | Manipulating graphic objects in 3D scenes |
US6448964B1 (en) | 1999-03-15 | 2002-09-10 | Computer Associates Think, Inc. | Graphic object manipulating tool |
JP4582921B2 (ja) * | 2000-02-04 | 2010-11-17 | 積水化学工業株式会社 | 環境表示装置、それを利用した建物の仮設計方法、建物設計装置及び建物の評価方法 |
US20020044152A1 (en) | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
JP2004021848A (ja) * | 2002-06-19 | 2004-01-22 | Mitsubishi Heavy Ind Ltd | 建築物設計システム、プラント設計システム、及び3次元構造体観察システム。 |
JP2007047294A (ja) | 2005-08-08 | 2007-02-22 | Nippon Hoso Kyokai <Nhk> | 立体画像表示装置 |
BRPI0615283A2 (pt) | 2005-08-29 | 2011-05-17 | Evryx Technologies Inc | interatividade por meio de reconhecimento de imagem móvel |
IL174737A (en) * | 2006-04-03 | 2014-12-31 | Camero Tech Ltd | Device and method for visualizing volume in broadband radar |
US20080071559A1 (en) | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
KR101390126B1 (ko) * | 2007-08-14 | 2014-04-28 | 엘지전자 주식회사 | 화상 통화시 프리뷰 이미지 제공 방법 및 이동통신단말기 |
US8836645B2 (en) | 2008-12-09 | 2014-09-16 | Microsoft Corporation | Touch input interpretation |
US9244562B1 (en) | 2009-07-31 | 2016-01-26 | Amazon Technologies, Inc. | Gestures and touches on force-sensitive input devices |
US10198854B2 (en) | 2009-08-14 | 2019-02-05 | Microsoft Technology Licensing, Llc | Manipulation of 3-dimensional graphical objects for view in a multi-touch display |
US8922583B2 (en) | 2009-11-17 | 2014-12-30 | Qualcomm Incorporated | System and method of controlling three dimensional virtual objects on a portable computing device |
JP5573238B2 (ja) | 2010-03-04 | 2014-08-20 | ソニー株式会社 | 情報処理装置、情報処理法方法およびプログラム |
US20110296352A1 (en) | 2010-05-27 | 2011-12-01 | Microsoft Corporation | Active calibration of a natural user interface |
US9411413B2 (en) * | 2010-08-04 | 2016-08-09 | Apple Inc. | Three dimensional user interface effects on a display |
JP2012089112A (ja) | 2010-09-22 | 2012-05-10 | Nikon Corp | 画像表示装置 |
CN103314344B (zh) | 2010-12-10 | 2015-11-25 | 索尼爱立信移动通讯有限公司 | 触敏触觉显示器 |
JP5799521B2 (ja) | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US8743244B2 (en) | 2011-03-21 | 2014-06-03 | HJ Laboratories, LLC | Providing augmented reality based on third party information |
JP5960796B2 (ja) | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
EP2546806B1 (en) | 2011-07-11 | 2019-05-08 | Deutsche Telekom AG | Image based rendering for ar - enabling user generation of 3d content |
US8581901B2 (en) | 2011-07-28 | 2013-11-12 | Adobe Systems Incorporated | Methods and apparatus for interactive rotation of 3D objects using multitouch gestures |
CN103890704A (zh) | 2011-10-27 | 2014-06-25 | 香港科技大学 | 通过多点触摸输入执行三维物体约束操作的系统和方法 |
US8872853B2 (en) | 2011-12-01 | 2014-10-28 | Microsoft Corporation | Virtual light in augmented reality |
US20130178257A1 (en) | 2012-01-06 | 2013-07-11 | Augaroo, Inc. | System and method for interacting with virtual objects in augmented realities |
US9316513B2 (en) | 2012-01-08 | 2016-04-19 | Sensor Platforms, Inc. | System and method for calibrating sensors for different operating environments |
JP5942456B2 (ja) | 2012-02-10 | 2016-06-29 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2013164697A (ja) | 2012-02-10 | 2013-08-22 | Sony Corp | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
JP5966834B2 (ja) | 2012-02-29 | 2016-08-10 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
US20130234926A1 (en) | 2012-03-07 | 2013-09-12 | Qualcomm Incorporated | Visually guiding motion to be performed by a user |
US20130257856A1 (en) | 2012-04-03 | 2013-10-03 | Google Inc. | Determining a View of an Object in a Three-Dimensional Image Viewer |
DE112012006269T5 (de) | 2012-04-26 | 2015-03-05 | Intel Corporation | Realitätsergänzender Rechner, Vorrichtung und System |
JP5870958B2 (ja) * | 2012-04-27 | 2016-03-01 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
JP2015519656A (ja) | 2012-05-09 | 2015-07-09 | アップル インコーポレイテッド | ユーザインタフェースオブジェクトを移動し、ドロップするためのデバイス、方法及びグラフィカルユーザインタフェース |
US9159153B2 (en) | 2012-06-05 | 2015-10-13 | Apple Inc. | Method, system and apparatus for providing visual feedback of a map view change |
US20130335405A1 (en) * | 2012-06-18 | 2013-12-19 | Michael J. Scavezze | Virtual object generation within a virtual environment |
KR101917695B1 (ko) | 2012-08-09 | 2018-11-13 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
JP6214981B2 (ja) | 2012-10-05 | 2017-10-18 | 株式会社ファイン | 建築画像表示装置、建築画像表示方法及びコンピュータプログラム |
US9552673B2 (en) * | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
US8997021B2 (en) | 2012-11-06 | 2015-03-31 | Lytro, Inc. | Parallax and/or three-dimensional effects for thumbnail image displays |
US9619911B2 (en) | 2012-11-13 | 2017-04-11 | Qualcomm Incorporated | Modifying virtual object display properties |
US10078384B2 (en) | 2012-11-20 | 2018-09-18 | Immersion Corporation | Method and apparatus for providing haptic cues for guidance and alignment with electrostatic friction |
KR101984915B1 (ko) | 2012-12-03 | 2019-09-03 | 삼성전자주식회사 | 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템 |
JP2014115957A (ja) * | 2012-12-12 | 2014-06-26 | Hiroaki Ishihara | 拡張現実型建物シミュレーション装置 |
US20140176745A1 (en) * | 2012-12-21 | 2014-06-26 | Nvidia Corporation | Approach for camera control |
KR102045169B1 (ko) | 2013-02-08 | 2019-11-14 | 애플 인크. | 용량성 감지에 기초한 힘 결정 |
US9679414B2 (en) | 2013-03-01 | 2017-06-13 | Apple Inc. | Federated mobile device positioning |
US20140282220A1 (en) | 2013-03-14 | 2014-09-18 | Tim Wantland | Presenting object models in augmented reality images |
US10025486B2 (en) | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
US10109075B2 (en) * | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
US9286727B2 (en) | 2013-03-25 | 2016-03-15 | Qualcomm Incorporated | System and method for presenting true product dimensions within an augmented real-world setting |
US9245387B2 (en) | 2013-04-12 | 2016-01-26 | Microsoft Technology Licensing, Llc | Holographic snap grid |
US10282083B2 (en) | 2013-06-09 | 2019-05-07 | Apple Inc. | Device, method, and graphical user interface for transitioning between user interfaces |
US10168882B2 (en) * | 2013-06-09 | 2019-01-01 | Apple Inc. | Device, method, and graphical user interface for switching between camera interfaces |
JP6144826B2 (ja) | 2013-06-11 | 2017-06-07 | クアルコム,インコーポレイテッド | データベース作成のための対話型および自動的3dオブジェクト走査方法 |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US10175483B2 (en) | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
US9514574B2 (en) | 2013-08-30 | 2016-12-06 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
EP3047359B1 (en) | 2013-09-03 | 2020-01-01 | Apple Inc. | User interface for manipulating user interface objects |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US20150135115A1 (en) | 2013-11-11 | 2015-05-14 | Lenovo (Singapore) Pte. Ltd. | Multi-touch input for changing text and image attributes |
WO2015125213A1 (ja) | 2014-02-18 | 2015-08-27 | 三菱電機株式会社 | 移動体用ジェスチャ誘導装置、移動体用ジェスチャ誘導システムおよび移動体用ジェスチャ誘導方法 |
US9720934B1 (en) | 2014-03-13 | 2017-08-01 | A9.Com, Inc. | Object recognition of feature-sparse or texture-limited subject matter |
WO2015140813A1 (en) * | 2014-03-17 | 2015-09-24 | Vats Nitin | Interactive display system with screen cut-to-shape of displayed object for realistic visualization and user interaction |
JP5937128B2 (ja) | 2014-03-17 | 2016-06-22 | 富士フイルム株式会社 | 拡張現実感提供システム、方法及びプログラム |
US9392212B1 (en) | 2014-04-17 | 2016-07-12 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user |
US9977844B2 (en) | 2014-05-13 | 2018-05-22 | Atheer, Inc. | Method for providing a projection to align 3D objects in 2D environment |
US10579207B2 (en) * | 2014-05-14 | 2020-03-03 | Purdue Research Foundation | Manipulating virtual environment using non-instrumented physical object |
US9646418B1 (en) | 2014-06-10 | 2017-05-09 | Ripple Inc | Biasing a rendering location of an augmented reality object |
EP4206870A1 (en) * | 2014-06-14 | 2023-07-05 | Magic Leap, Inc. | Method for updating a virtual world |
US9589354B2 (en) | 2014-06-17 | 2017-03-07 | Chief Architect Inc. | Virtual model viewing methods and apparatus |
US9495008B2 (en) | 2014-06-27 | 2016-11-15 | Amazon Technologies, Inc. | Detecting a primary user of a device |
US10518188B2 (en) * | 2014-06-30 | 2019-12-31 | Microsoft Technology Licensing, Llc | Controlling physical toys using a physics engine |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
CN107529009B (zh) | 2014-09-02 | 2020-06-30 | 苹果公司 | 远程相机用户界面 |
US10070120B2 (en) | 2014-09-17 | 2018-09-04 | Qualcomm Incorporated | Optical see-through display calibration |
US9436369B2 (en) | 2014-09-26 | 2016-09-06 | Disney Enterprises, Inc. | Touch interface for precise rotation of an object |
US10043319B2 (en) | 2014-11-16 | 2018-08-07 | Eonite Perception Inc. | Optimizing head mounted displays for augmented reality |
CN106663411A (zh) | 2014-11-16 | 2017-05-10 | 易欧耐特感知公司 | 用于增强现实准备、处理和应用的系统和方法 |
US9728010B2 (en) | 2014-12-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Virtual representations of real-world objects |
EP3130450B1 (en) | 2015-01-30 | 2020-11-11 | Technology Research Association For Future Additive Manufacturing | Three-dimensional shaping system, information processing apparatus, method for arranging three-dimensional shaping models, and program for arranging three-dimensional shaping models |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US20160329006A1 (en) | 2015-05-04 | 2016-11-10 | Microsoft Technology Licensing, Llc | Interactive integrated display and processing device |
US10339382B2 (en) | 2015-05-31 | 2019-07-02 | Fieldbit Ltd. | Feedback based remote maintenance operations |
US10825049B2 (en) | 2015-06-09 | 2020-11-03 | Visa International Service Association | Virtual reality and augmented reality systems and methods to generate mobile alerts |
US9386230B1 (en) * | 2015-06-12 | 2016-07-05 | Google Inc. | Day and night detection based on one or more of illuminant detection, lux level detection, and tiling |
JP6629528B2 (ja) | 2015-06-16 | 2020-01-15 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
US9652125B2 (en) | 2015-06-18 | 2017-05-16 | Apple Inc. | Device, method, and graphical user interface for navigating media content |
EP3116212B1 (en) | 2015-07-06 | 2023-04-19 | Nokia Technologies Oy | Transition from display of first camera information to display of second camera information |
US10482659B2 (en) | 2015-07-15 | 2019-11-19 | Oracle International Corporation | System and method for superimposing spatially correlated data over live real-world images |
KR20170130582A (ko) * | 2015-08-04 | 2017-11-28 | 구글 엘엘씨 | 가상현실에서 시선 인터렉션을 위한 호버 행동 |
US10134188B2 (en) | 2015-12-21 | 2018-11-20 | Intel Corporation | Body-centric mobile point-of-view augmented and virtual reality |
US11221750B2 (en) | 2016-02-12 | 2022-01-11 | Purdue Research Foundation | Manipulating 3D virtual objects using hand-held controllers |
TWI567691B (zh) | 2016-03-07 | 2017-01-21 | 粉迷科技股份有限公司 | 立體空間的場景編輯方法與系統 |
CN111329554B (zh) | 2016-03-12 | 2021-01-05 | P·K·朗 | 用于手术的装置与方法 |
US10176641B2 (en) | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10802695B2 (en) | 2016-03-23 | 2020-10-13 | Youar Inc. | Augmented reality for the internet of things |
US10088898B2 (en) * | 2016-03-31 | 2018-10-02 | Verizon Patent And Licensing Inc. | Methods and systems for determining an effectiveness of content in an immersive virtual reality world |
US11494547B2 (en) | 2016-04-13 | 2022-11-08 | Microsoft Technology Licensing, Llc | Inputting images to electronic devices |
US20170300214A1 (en) | 2016-04-19 | 2017-10-19 | SAS Automation, LLC | Three Dimensional Model Launch Tools And Methods Of Use |
US10303323B2 (en) | 2016-05-18 | 2019-05-28 | Meta Company | System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface |
EP3467620A4 (en) | 2016-05-31 | 2019-05-22 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
JP6323960B2 (ja) | 2016-08-02 | 2018-05-16 | 本田技研工業株式会社 | 入力装置 |
EP3510475A4 (en) | 2016-10-11 | 2020-04-22 | Hewlett-Packard Development Company, L.P. | VISUAL NOTICE SYSTEM |
US10332317B2 (en) | 2016-10-25 | 2019-06-25 | Microsoft Technology Licensing, Llc | Virtual reality and cross-device experiences |
US10824294B2 (en) | 2016-10-25 | 2020-11-03 | Microsoft Technology Licensing, Llc | Three-dimensional resource integration system |
US20180143693A1 (en) * | 2016-11-21 | 2018-05-24 | David J. Calabrese | Virtual object manipulation |
US20180210628A1 (en) * | 2017-01-23 | 2018-07-26 | Snap Inc. | Three-dimensional interaction system |
US20170173262A1 (en) | 2017-03-01 | 2017-06-22 | François Paul VELTZ | Medical systems, devices and methods |
US10290152B2 (en) * | 2017-04-03 | 2019-05-14 | Microsoft Technology Licensing, Llc | Virtual object user interface display |
US10692287B2 (en) | 2017-04-17 | 2020-06-23 | Microsoft Technology Licensing, Llc | Multi-step placement of virtual objects |
US10339714B2 (en) | 2017-05-09 | 2019-07-02 | A9.Com, Inc. | Markerless image analysis for augmented reality |
DK180470B1 (en) | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
DK201870346A1 (en) | 2018-01-24 | 2019-09-12 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
-
2018
- 2018-08-23 DK DKPA201870548A patent/DK180470B1/en not_active IP Right Cessation
- 2018-08-24 AU AU2018101226A patent/AU2018101226B4/en active Active
- 2018-08-29 US US16/116,276 patent/US11163417B2/en active Active
- 2018-08-30 KR KR1020227007567A patent/KR102540163B1/ko active IP Right Grant
- 2018-08-30 CN CN202010919245.XA patent/CN112034988B/zh active Active
- 2018-08-30 CN CN202211171090.1A patent/CN115562483A/zh active Pending
- 2018-08-30 KR KR1020207004652A patent/KR102373116B1/ko active IP Right Grant
- 2018-08-30 JP JP2020509514A patent/JP6952877B2/ja active Active
- 2018-08-30 KR KR1020237018429A patent/KR102606618B1/ko active IP Right Grant
- 2018-08-30 EP EP24158812.8A patent/EP4350622A2/en active Pending
- 2018-08-30 AU AU2018324085A patent/AU2018324085B2/en active Active
- 2018-08-30 KR KR1020237040213A patent/KR20230167134A/ko active Application Filing
- 2018-08-30 CN CN201880055301.0A patent/CN111095165A/zh active Pending
- 2018-08-30 EP EP18778642.1A patent/EP3635518B1/en active Active
-
2021
- 2021-09-28 JP JP2021158281A patent/JP7324813B2/ja active Active
- 2021-09-28 US US17/488,191 patent/US11740755B2/en active Active
- 2021-09-28 AU AU2021240136A patent/AU2021240136B2/en active Active
-
2023
- 2023-04-27 US US18/140,557 patent/US20230305674A1/en active Pending
- 2023-05-22 AU AU2023203200A patent/AU2023203200A1/en active Pending
- 2023-07-31 JP JP2023124668A patent/JP2023159124A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012058979A (ja) * | 2010-09-08 | 2012-03-22 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法 |
JP2012212345A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 端末装置、オブジェクト制御方法及びプログラム |
JP2014522054A (ja) * | 2011-08-02 | 2014-08-28 | マイクロソフト コーポレーション | 選択及び再配置するクロススライドジェスチャ |
WO2013118373A1 (ja) * | 2012-02-10 | 2013-08-15 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2015212946A (ja) * | 2014-05-05 | 2015-11-26 | イマージョン コーポレーションImmersion Corporation | ビューポートベースの拡張現実感触覚効果のためのシステムおよび方法 |
JP2016038867A (ja) * | 2014-08-11 | 2016-03-22 | 株式会社大林組 | 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7082698B1 (ja) | 2021-02-18 | 2022-06-08 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7086242B1 (ja) | 2021-02-18 | 2022-06-17 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2022126547A (ja) * | 2021-02-18 | 2022-08-30 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2022126546A (ja) * | 2021-02-18 | 2022-08-30 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20220311950A1 (en) * | 2021-03-25 | 2022-09-29 | Microsoft Technology Licensing, Llc | Systems and methods for placing annotations in an augmented reality environment using a center-locked interface |
US11523063B2 (en) * | 2021-03-25 | 2022-12-06 | Microsoft Technology Licensing, Llc | Systems and methods for placing annotations in an augmented reality environment using a center-locked interface |
Also Published As
Publication number | Publication date |
---|---|
AU2018101226B4 (en) | 2019-05-09 |
EP3635518B1 (en) | 2024-04-03 |
US11163417B2 (en) | 2021-11-02 |
AU2023203200A1 (en) | 2023-06-15 |
US20230305674A1 (en) | 2023-09-28 |
CN115562483A (zh) | 2023-01-03 |
DK201870548A1 (en) | 2019-10-16 |
AU2021240136B2 (en) | 2023-05-11 |
EP4350622A2 (en) | 2024-04-10 |
JP6952877B2 (ja) | 2021-10-27 |
CN112034988B (zh) | 2022-10-18 |
US20220019334A1 (en) | 2022-01-20 |
CN111095165A (zh) | 2020-05-01 |
CN112034988A (zh) | 2020-12-04 |
AU2018101226A4 (en) | 2018-09-27 |
KR20220032653A (ko) | 2022-03-15 |
KR20230085945A (ko) | 2023-06-14 |
AU2021240136A1 (en) | 2021-10-28 |
JP2022008600A (ja) | 2022-01-13 |
JP7324813B2 (ja) | 2023-08-10 |
DK180470B1 (en) | 2021-05-06 |
KR102373116B1 (ko) | 2022-03-11 |
KR102606618B1 (ko) | 2023-11-29 |
AU2018324085A1 (en) | 2020-03-05 |
KR20200031666A (ko) | 2020-03-24 |
AU2018324085B2 (en) | 2021-09-09 |
US11740755B2 (en) | 2023-08-29 |
KR102540163B1 (ko) | 2023-06-08 |
KR20230167134A (ko) | 2023-12-07 |
US20190065027A1 (en) | 2019-02-28 |
EP3635518A1 (en) | 2020-04-15 |
JP2023159124A (ja) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6952877B2 (ja) | 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース | |
US20210333979A1 (en) | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models | |
WO2019046597A1 (en) | GRAPHIC USER SYSTEMS, METHODS AND INTERFACES FOR INTERACTING WITH ENHANCED AND VIRTUAL REALITY ENVIRONMENTS | |
EP4091142A1 (en) | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments | |
US20240053859A1 (en) | Systems, Methods, and Graphical User Interfaces for Interacting with Virtual Reality Environments | |
KR20200110788A (ko) | 3d 모델들에 대한 시스템 전체 거동을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210121 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210219 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6952877 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |