JP7039714B2 - Devices, methods, and graphical user interfaces for system-wide behavior of 3D models - Google Patents

Devices, methods, and graphical user interfaces for system-wide behavior of 3D models Download PDF

Info

Publication number
JP7039714B2
JP7039714B2 JP2020540320A JP2020540320A JP7039714B2 JP 7039714 B2 JP7039714 B2 JP 7039714B2 JP 2020540320 A JP2020540320 A JP 2020540320A JP 2020540320 A JP2020540320 A JP 2020540320A JP 7039714 B2 JP7039714 B2 JP 7039714B2
Authority
JP
Japan
Prior art keywords
virtual
input
user interface
axis
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020540320A
Other languages
Japanese (ja)
Other versions
JP2021518935A (en
Inventor
フィリップ ロッケル,
ジョナサン アール. ダスコラ,
ステファン オー. ルメイ,
ジェフリー, エム. フォークナー,
デイビッド, ジェイ. アッデイ,
デイビッド ルイ,
ジャンカルロ ヤークズ,
グラント, アール. ポール,
クレア, ティー. カセームセット,
リサ, ケイ. フォーセル,
ブラッドリー, ダブリュ. グリフィン,
エリザベス, キャロライン, ファーチェス クランフィル,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DKPA201870346A external-priority patent/DK201870346A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021518935A publication Critical patent/JP2021518935A/en
Priority to JP2022036354A priority Critical patent/JP7397899B2/en
Application granted granted Critical
Publication of JP7039714B2 publication Critical patent/JP7039714B2/en
Priority to JP2023204027A priority patent/JP2024026250A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Description

[技術分野]
本発明は、一般に、限定されるわけではないが様々な状況で仮想オブジェクトを表示する電子デバイスなど、仮想オブジェクトを表示する電子デバイスに関する。
[Technical field]
The present invention generally relates to electronic devices that display virtual objects, such as, but not limited to, electronic devices that display virtual objects in various situations.

拡張現実のためのコンピュータシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界を置換又は強化する少なくともいくつかの仮想要素を含む。仮想/拡張現実環境と対話するには、コンピュータシステム及び他の電子コンピューティングデバイスのタッチ感知面などの入力デバイスを使用する。例示的なタッチ感知面としては、タッチパッド、タッチ感知遠隔制御装置、及びタッチスクリーンディスプレイが挙げられる。これらの表面を使用して、ディスプレイ上で、ユーザーインターフェース及びその中のオブジェクトを操作する。例示的なユーザーインターフェースオブジェクトは、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの制御要素を含む。 The development of computer systems for augmented reality has made remarkable progress in recent years. An exemplary augmented reality environment contains at least some virtual elements that replace or enhance the physical world. To interact with virtual / augmented reality environments, use input devices such as the touch-sensitive surfaces of computer systems and other electronic computing devices. Exemplary touch-sensitive surfaces include touchpads, touch-sensitive remote controls, and touchscreen displays. These surfaces are used to manipulate the user interface and the objects within it on the display. Exemplary user interface objects include digital images, videos, text, icons, and control elements such as buttons and other graphics.

しかし、少なくともいくつかの仮想要素を含む環境(例えばアプリケーション、拡張現実環境、混合現実環境、及び仮想現実環境)と対話する方法及びインターフェースは、煩雑で、非効率で、限定されたものである。例えば、拡張現実環境で仮想オブジェクトを向き及び位置決めするために一連の入力を使用すると、時間がかかり、かなりの認知上の負担がユーザーにかかり、仮想/拡張現実環境のエクスペリエンスが損なわれる。更に、これらの方法は、必要以上に時間がかかり、それによりエネルギーを浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重要である。 However, the methods and interfaces for interacting with environments containing at least some virtual elements (eg applications, augmented reality environments, mixed reality environments, and virtual reality environments) are cumbersome, inefficient, and limited. For example, using a set of inputs to orient and position a virtual object in an augmented reality environment is time consuming, places a significant cognitive burden on the user, and compromises the experience in the virtual / augmented reality environment. Moreover, these methods take longer than necessary, thereby wasting energy. The latter problem is especially important for battery-powered devices.

したがって、仮想オブジェクトと対話するための改善された方法及びインターフェースを備えたコンピュータシステムが必要とされている。このような方法及びインターフェースは、任意選択的に、仮想オブジェクトと対話するための従来の方法を補完する、又はこれらに取って代わるものである。このような方法及びインターフェースは、ユーザーからの入力の数、範囲、及び/又は種類を減少させ、より効率的な人間機械インターフェースを生成する。バッテリ動作デバイスでは、このような方法及びインターフェースにより、電力が節約され、バッテリの充電間の時間が長くなる。 Therefore, there is a need for computer systems with improved methods and interfaces for interacting with virtual objects. Such methods and interfaces optionally complement or replace conventional methods for interacting with virtual objects. Such methods and interfaces reduce the number, range, and / or types of input from the user, producing a more efficient human-machine interface. In battery-powered devices, such methods and interfaces save power and increase the time between battery charges.

仮想オブジェクトと対話するためのインターフェース(例えば、拡張現実(AR)のためのユーザーインターフェース及び関連する非ARインターフェース)に関連する上記の不具合及びその他の問題は、開示するコンピュータシステムによって軽減又は解消される。いくつかの実施形態では、コンピュータシステムは、デスクトップコンピュータを含む。いくつかの実施形態では、コンピュータシステムは、ポータブルである(例えばノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイスである)。いくつかの実施形態では、コンピュータシステムは、パーソナル電子デバイス(例えば腕時計などのウェアラブル電子デバイス)を含む。いくつかの実施形態では、コンピュータシステムは、タッチパッドを有する(かつ/又はこれと通信している)。いくつかの実施形態では、コンピュータシステムは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」とも呼ばれる)を有する(かつ/又はこれと通信している)。いくつかの実施形態では、コンピュータシステムは、グラフィカルユーザーインターフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザーは、部分的には、タッチ感知面におけるスタイラス及び/又は指による接触及びジェスチャを通してGUIと対話する。いくつかの実施形態では、機能は、任意選択的に、ゲームプレイ、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシート作成、電話、ビデオ会議、電子メール、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽再生、メモ取り、及び/又はデジタルビデオ再生を含む。これらの機能を実行するための実行可能命令は、任意選択的に、非一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行されるように構成されたその他のコンピュータプログラム製品に含まれる。 The above glitches and other problems related to interfaces for interacting with virtual objects (eg, user interfaces for augmented reality (AR) and related non-AR interfaces) are mitigated or eliminated by the disclosing computer system. .. In some embodiments, the computer system comprises a desktop computer. In some embodiments, the computer system is portable (eg, a notebook computer, tablet computer, or handheld device). In some embodiments, the computer system comprises a personal electronic device (eg, a wearable electronic device such as a wristwatch). In some embodiments, the computer system has (and / or communicates with) a touchpad. In some embodiments, the computer system has (and / or communicates with) a touch-sensitive display (also referred to as a "touch screen" or "touch screen display"). In some embodiments, the computer system is a graphical user interface (GUI), one or more processors, memory, and one or more modules, programs, or instructions stored in memory for performing multiple functions. Have a set. In some embodiments, the user interacts with the GUI, in part, through a stylus and / or finger contact and gesture on the touch-sensitive surface. In some embodiments, the features are optionally gameplay, image editing, drawing, presenting, word processing, spreadsheet creation, phone, video conference, email, instant messaging, training support, digital photography. Includes digital video recording, web browsing, digital music playback, note-taking, and / or digital video playback. Executable instructions for performing these functions are optionally included in non-temporary computer-readable storage media or other computer program products configured to be executed by one or more processors.

いくつかの実施形態によれば、方法は、ディスプレイ、タッチ感知面、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの表現を表示することを含む。この方法は、また、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示している間に、ディスプレイ上における仮想オブジェクトの表現に対応したタッチ感知面上の場所で接触による第1の入力を検出することを含む。この方法は、また、接触による第1の入力を検出したことに応答して、接触による第1の入力が第1の基準を満足するとの判定にしたがって、第1のユーザーインターフェース領域の少なくとも一部分の表示を1つ以上のカメラの視野の表現で置き換えることを含む、ディスプレイに第2のユーザーインターフェース領域を表示することと、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に、仮想オブジェクトの表現を連続的に表示することと、を含む。 According to some embodiments, the method is performed on a computer system having a display, a touch sensitive surface, and one or more cameras. This method involves displaying a representation of a virtual object in a first user interface area on the display. This method is also by contact at a location on the touch sensitive surface corresponding to the representation of the virtual object on the display while displaying the first representation of the virtual object in the first user interface area on the display. Includes detecting the first input. This method also comprises at least a portion of the first user interface area in response to the detection of the first input by contact, as determined by the determination that the first input by contact satisfies the first criterion. Displaying a second user interface area from displaying a second user interface area on the display and displaying a first user interface area, including replacing the display with a representation of the field of view of one or more cameras. Includes the continuous display of a representation of a virtual object while switching to doing.

いくつかの実施形態によれば、方法は、ディスプレイ、タッチ感知面、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示することを含む。この方法は、また、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示している間に、ディスプレイ上の仮想オブジェクトの第1の表現に対応するタッチ感知面上の場所で第1の接触による第1の入力を検出することを含む。この方法は、また、第1の接触による第1の入力を検出したことに応答して、第1の接触による第1の入力が第1の基準を満足するとの判定にしたがって、第1のユーザーインターフェース領域とは異なる第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示することを含む。この方法は、また、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示している間に、第2の入力を検出することと、第2の入力を検出したことに応答して、第2の入力が第2のユーザーインターフェース領域内で仮想オブジェクトを操作する要求に対応しているとの判定にしたがって、第2の入力に基づいて第2のユーザーインターフェース領域内で仮想オブジェクトの第2の表現の表示特性を変化させることと、第2の入力が拡張現実環境内に仮想オブジェクトを表示する要求に対応しているとの判定にしたがって、1つ以上のカメラの視野の表現とともに仮想オブジェクトの第3の表現を表示することと、を含む。 According to some embodiments, the method is performed on a computer system having a display, a touch sensitive surface, and one or more cameras. This method involves displaying a first representation of a virtual object in a first user interface area on a display. This method also provides a location on the touch sensitive surface that corresponds to the first representation of the virtual object on the display while displaying the first representation of the virtual object in the first user interface area on the display. Includes detecting the first input due to the first contact in. This method also responds to the detection of the first input by the first contact and according to the determination that the first input by the first contact satisfies the first criterion, the first user. Includes displaying a second representation of a virtual object in a second user interface area that is different from the interface area. This method also responds to detecting the second input and detecting the second input while displaying the second representation of the virtual object in the second user interface area. , The second of the virtual objects in the second user interface area based on the second input, according to the determination that the second input corresponds to the request to operate the virtual object in the second user interface area. Virtually along with the representation of the field of view of one or more cameras, according to changing the display characteristics of the representation in 2 and determining that the second input corresponds to the request to display the virtual object in the augmented real environment. Includes displaying a third representation of the object.

いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有するコンピュータシステムで実行される。この方法は、第1のユーザーインターフェースを表示する要求に応答して、第1のアイテムの表現とともに第1のユーザーインターフェースを表示することを含む。この方法は、また、第1のアイテムがそれぞれの仮想三次元オブジェクトに対応しているとの判定にしたがって、第1のアイテムが第1のそれぞれの仮想三次元オブジェクトに対応していることを示す視覚的な指示とともに第1のアイテムの表現を表示することを含む。この方法は、また、第1のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定にしたがって、視覚的な指示なしで第1のアイテムの表現を表示することを含む。この方法は、また、第1のアイテムの表現を表示した後で、第2のアイテムを含む第2のユーザーインターフェースを表示する要求を受信することを含む。この方法は、また、第2のユーザーインターフェースを表示する要求に応答して、第2のアイテムの表現とともに第2のユーザーインターフェースを表示することを含む。この方法は、また、第2のアイテムがそれぞれの仮想三次元オブジェクトに対応しているとの判定にしたがって、第2のアイテムが第2のそれぞれの仮想三次元オブジェクトに対応していることを示す視覚的な指示とともに第2のアイテムの表現を表示することを含む。この方法は、また、第2のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定にしたがって、視覚的な指示なしで第2のアイテムの表現を表示することを含む。 According to some embodiments, the method is performed on a computer system having a display and a touch sensitive surface. The method comprises displaying the first user interface with a representation of the first item in response to a request to display the first user interface. This method also indicates that the first item corresponds to each of the first virtual 3D objects, according to the determination that the first item corresponds to each virtual 3D object. Includes displaying the representation of the first item with visual instructions. The method also includes displaying the representation of the first item without visual instruction, according to the determination that the first item does not correspond to each virtual 3D object. The method also includes receiving a request to display a second user interface containing the second item after displaying the representation of the first item. The method also includes displaying the second user interface with a representation of the second item in response to a request to display the second user interface. This method also indicates that the second item corresponds to each of the second virtual 3D objects, according to the determination that the second item corresponds to each virtual 3D object. Includes displaying the representation of the second item with visual instructions. The method also includes displaying the representation of the second item without visual instruction, according to the determination that the second item does not correspond to each virtual 3D object.

いくつかの実施形態によれば、方法は、表示生成コンポーネント、1つ以上の入力デバイス、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、1つ以上のカメラの視野の少なくとも一部分を含む第1のユーザーインターフェース領域に仮想オブジェクトを表示する要求を受信することを含む。この方法は、また、仮想オブジェクトを第1のユーザーインターフェース領域に表示する要求に応答して、表示生成コンポーネントを介して第1のユーザーインターフェース領域に含まれる1つ以上のカメラの視野の少なくとも一部分の上に仮想オブジェクトの表現を表示することを含み、ここで、1つ以上のカメラの視野は、1つ以上のカメラが位置している物理的環境のビューである。仮想オブジェクトの表現を表示することは、オブジェクト配置基準が満足されていないとの判定にしたがって、仮想オブジェクトの表現を、第1の1組の視覚特性で、かつ物理的環境のうちのどの部分が1つ以上のカメラの視野内に表示されているかとは無関係の第1の向きで、表示することであり、オブジェクト配置基準が、満たされるためには、仮想オブジェクトの配置場所が1つ以上のカメラの視野内で特定されることを必要とする、こと、及びオブジェクト配置基準が満足されたとの判定にしたがって、仮想オブジェクトの表現を、第1の1組の視覚特性とは別個の第2の1組の視覚特性で、かつ1つ以上のカメラの視野内で検出された物理的環境内のプレーンに対応する第2の向きで、表示すること、を含む。 According to some embodiments, the method is performed on a computer system having a display generation component, one or more input devices, and one or more cameras. The method comprises receiving a request to display a virtual object in a first user interface area that includes at least a portion of the field of view of one or more cameras. This method also responds to a request to display a virtual object in the first user interface area, at least a portion of the field of view of one or more cameras contained in the first user interface area via the display generation component. Including displaying a representation of a virtual object above, where the field of view of one or more cameras is a view of the physical environment in which the one or more cameras are located. Displaying the representation of a virtual object, according to the determination that the object placement criteria are not satisfied, makes the representation of the virtual object a first set of visual characteristics and which part of the physical environment It is to display in the first orientation, regardless of whether it is displayed in the field of view of one or more cameras, and in order for the object placement criteria to be met, one or more virtual objects are placed in one or more places. According to the determination that it needs to be identified in the field of view of the camera and that the object placement criteria are satisfied, the representation of the virtual object is a second set separate from the first set of visual characteristics. Includes displaying with a set of visual characteristics and in a second orientation corresponding to a plane in the physical environment detected within the field of view of one or more cameras.

いくつかの実施形態によれば、方法は、表示生成コンポーネント、1つ以上の入力デバイス、1つ以上のカメラ、及び1つ以上のカメラを含むデバイスの姿勢の変化を検出する1つ以上の姿勢センサを有するコンピュータシステムで実行される。この方法は、物理的環境の拡張現実ビューを1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域に表示する要求を受信することを含む。この方法は、また、物理的環境の拡張現実ビューを表示する要求を受信したことに応答して、1つ以上のカメラの視野の表現を表示することと、物理的環境の拡張現実ビューについて較正基準が満足されていないとの判定にしたがって、物理的環境における1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示することと、を含み、較正ユーザーインターフェースオブジェクトを表示することは、較正ユーザーインターフェースオブジェクトを表示している間に、1つ以上の姿勢センサを介して、物理的環境における1つ以上のカメラの姿勢の変化を検出することと、物理的環境における1つ以上のカメラの姿勢の変化を検出したことに応答して、物理的環境における1つ以上のカメラの姿勢の検出した変化にしたがって較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することと、を含む。この方法は、また、物理的環境における1つ以上のカメラの姿勢の検出した変化にしたがってディスプレイ上を移動する較正ユーザーインターフェースオブジェクトを表示している間に、較正基準が満たされたことを検出することを含む。この方法は、また、較正基準が満たされたことを検出したことに応答して、較正ユーザーインターフェースオブジェクトを表示することを停止することを含む。 According to some embodiments, the method is a display generation component, one or more input devices, one or more cameras, and one or more postures that detect changes in the posture of a device including one or more cameras. Performed on a computer system with sensors. The method comprises receiving a request to display an augmented reality view of the physical environment in a first user interface area that includes a representation of the field of view of one or more cameras. This method also displays a representation of the field of view of one or more cameras in response to a request to display the augmented reality view of the physical environment and calibrates the augmented reality view of the physical environment. A calibrated user interface object, including displaying a dynamically animated calibrated user interface object as one or more cameras move in a physical environment, according to the determination that the criteria are not met. Displaying is to detect changes in the posture of one or more cameras in a physical environment through one or more attitude sensors while displaying a calibrated user interface object, and to display in the physical environment. Adjusting at least one display parameter of the calibrated user interface object according to the detected changes in the posture of one or more cameras in the physical environment in response to detecting changes in the posture of one or more cameras. ,including. This method also detects that calibration criteria have been met while displaying a calibration user interface object that moves on the display according to the detected changes in the attitude of one or more cameras in the physical environment. Including that. The method also includes stopping the display of the calibration user interface object in response to detecting that the calibration criteria have been met.

いくつかの実施形態によれば、表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するコンピュータシステムで実行される。この方法は、表示生成コンポーネントによって、仮想三次元オブジェクトの第1の視点の表現を第1のユーザーインターフェース領域に表示することを含む。この方法は、また、仮想三次元オブジェクトの第1の視点の表現をディスプレイ上の第1のユーザーインターフェース領域に表示している間に、仮想三次元オブジェクトの第1の視点から視認不能である仮想三次元オブジェクトの部分を表示するために表示に対して仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することを含む。この方法は、また、第1の入力を検出したことに応答して、第1の入力が三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、仮想三次元オブジェクトを、第1の軸に対して、第1の入力の大きさに基づいて決定され、かつ第1の軸に対する閾値回転量を超える量の仮想三次元オブジェクトの回転を制約する移動に課される限界によって制約された量だけ、回転させることと、第1の入力が、第1の軸とは異なる第2の軸の周りで三次元オブジェクトを回転させる要求に対応しているとの判定にしたがって、仮想三次元オブジェクトを第2の軸に対して第1の入力の大きさに基づいて決定された量だけ回転させることと、を含み、それぞれの閾値を超える大きさを有する入力について、デバイスは、仮想三次元オブジェクトを第2の軸に対して閾値回転量を超える量だけ回転させる。 According to some embodiments, it is performed on a computer system having a display generation component and one or more input devices including a touch sensitive surface. This method involves displaying a representation of a first perspective of a virtual 3D object in a first user interface area by means of a display generation component. This method is also invisible from the first viewpoint of the virtual 3D object while displaying the representation of the first viewpoint of the virtual 3D object in the first user interface area on the display. It involves detecting a first input corresponding to a request to rotate a virtual 3D object with respect to the display to display a portion of the 3D object. This method is also virtual, according to the determination that the first input corresponds to the request to rotate the 3D object around the first axis in response to the detection of the first input. To move a 3D object to a movement that constrains the rotation of a virtual 3D object that is determined based on the size of the 1st input with respect to the 1st axis and exceeds the threshold rotation amount with respect to the 1st axis. Rotate by the amount constrained by the limits imposed, and the first input corresponds to the requirement to rotate the 3D object around a second axis that is different from the first axis. For inputs having a size that exceeds their respective thresholds, including rotating the virtual 3D object by an amount determined based on the size of the first input with respect to the second axis according to the determination. , The device rotates the virtual 3D object by an amount exceeding the threshold rotation amount with respect to the second axis.

いくつかの実施形態によれば、方法は、表示生成コンポーネント及びタッチ感知面を有するコンピュータシステムで実行される。この方法は、表示生成コンポーネントを介して、第1のジェスチャ認識基準を満たす入力に応答して実施される第1のオブジェクト操作挙動、及び第2のジェスチャ認識基準を満たす入力に応答して実行される第2のオブジェクト操作挙動を含む複数のオブジェクト操作挙動と関連付けられたユーザーインターフェースオブジェクトを含む第1のユーザーインターフェース領域を表示することを含む。この方法は、また、第1のユーザーインターフェース領域を表示する間に、タッチ感知面にわたる1つ以上の接触の移動を検出することを含む、ユーザーインターフェースオブジェクトに向けられた入力の第1の部分を検出することと、タッチ感知面において1つ以上の接触が検出されている間に、第1のジェスチャ認識基準と第2のジェスチャ認識基準の両方に関して1つ以上の接触の移動を評価することと、を含む。この方法は、また、入力の第1の部分を検出したことに応答して、入力の第1の部分に基づいてユーザーインターフェースオブジェクトの外観を更新することであり、入力の第1の部分が第2のジェスチャ認識基準を満たす前に第1のジェスチャ認識基準を満足するとの判定にしたがって、入力の第1の部分に基づいて第1のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変化させること、及び第2のジェスチャ認識基準の閾値を増大させることによって第2のジェスチャ認識基準を更新することと、入力が第1のジェスチャ認識基準を満たす前に第2のジェスチャ認識基準を満足するとの判定にしたがって、入力の第1の部分に基づいて第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変化させること、及び第1のジェスチャ認識基準の閾値を増大させることによって第1のジェスチャ認識基準を更新すること、を含む、ことを含む。 According to some embodiments, the method is performed on a computer system having a display generation component and a touch sensitive surface. This method is performed via the display generation component in response to an input that meets the first gesture recognition criteria, a first object manipulation behavior that is performed in response to an input that meets the first gesture recognition criteria, and an input that meets the second gesture recognition criteria. 2. Displaying a first user interface area containing a user interface object associated with a plurality of object operation behaviors including the second object operation behavior. This method also comprises detecting the movement of one or more contacts across the touch-sensitive surface while displaying the first user interface area, the first part of the input directed to the user interface object. To detect and to evaluate the movement of one or more contacts with respect to both the first and second gesture recognition criteria while one or more contacts are being detected on the touch-sensitive surface. ,including. This method also updates the appearance of the user interface object based on the first part of the input in response to discovering the first part of the input, where the first part of the input is the first. Changing the appearance of the user interface object according to the first object manipulation behavior based on the first part of the input, according to the determination that the first gesture recognition criterion is satisfied before satisfying the second gesture recognition criterion. And to update the second gesture recognition criterion by increasing the threshold of the second gesture recognition criterion, and to determine that the input satisfies the second gesture recognition criterion before it meets the first gesture recognition criterion. Therefore, the first gesture recognition criterion is set by changing the appearance of the user interface object according to the second object manipulation behavior based on the first part of the input, and by increasing the threshold of the first gesture recognition criterion. Including, including updating.

いくつかの実施形態によれば、方法は、表示生成コンポーネント、1つ以上の入力デバイス、1つ以上の音声出力生成器、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、表示生成コンポーネントを介して、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域に仮想オブジェクトの表現を表示することを含み、この表示することは、仮想オブジェクトの表現と、1つ以上のカメラの視野内でキャプチャされた物理的環境内で検出されたプレーンとの間の第1の空間的関係を維持することを含む。この方法は、また、1つ以上のカメラの視野を調整するデバイスの移動を検出することを含む。この方法は、また、1つ以上のカメラの視野を調整するデバイスの移動を検出したことに応答して、1つ以上のカメラの視野が調整されるにつれて、仮想オブジェクトと1つ以上のカメラの視野内で検出されるプレーンとの間の第1の空間的関係にしたがって、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示を調整することと、デバイスの移動が仮想オブジェクトの閾値量より大きな量を1つ以上のカメラの視野の表示部分の外部に移動させるとの判定にしたがって、1つ以上の音声出力生成器を介して、第1の音声警報を生成することと、を含む。 According to some embodiments, the method is performed on a computer system having a display generation component, one or more input devices, one or more audio output generators, and one or more cameras. This method involves displaying a representation of a virtual object in a first user interface area that contains a representation of the field of view of one or more cameras via a display generation component, which display is a representation of the virtual object. Includes maintaining a first spatial relationship between and a plane detected within the physical environment captured within the field of view of one or more cameras. The method also includes detecting the movement of a device that adjusts the field of view of one or more cameras. This method also adjusts the field of view of one or more cameras. As the field of view of one or more cameras is adjusted in response to detecting the movement of the device, the virtual object and one or more cameras Adjusting the display of the representation of the virtual object in the first user interface area according to the first spatial relationship with the plane detected in the field of view, and moving the device from the threshold amount of the virtual object. It comprises generating a first audio alarm via one or more audio output generators according to the determination to move a large amount out of the display portion of the field of view of the one or more cameras.

いくつかの実施形態によれば、電子デバイスは、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な姿勢の変化を検出する1つ以上の姿勢センサと、1つ以上のプロセッサと、1つ以上のプログラムを記憶したメモリとを含み、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載する方法のうちのいずれかの動作を実行する、又はその実行を引き起こす命令を含む。いくつかの実施形態によれば、コンピュータ可読記憶媒体は、命令を記憶しており、これらの命令は、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な1つ以上の姿勢センサとを備えた電子デバイスによって実行されたときに、このデバイスに、本明細書に記載する方法のうちのいずれかの動作を実行させる、又はその実行を引き起こさせる。いくつかの実施形態によれば、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な1つ以上の姿勢センサと、メモリと、メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサとを備えた電子デバイスのグラフィカルユーザーインターフェースは、本明細書に記載する方法のうちのいずれかに記載するように、入力に応答して更新される本明細書に記載する方法のいずれかで表示される要素のうちの1つ以上を含む。いくつかの実施形態によれば、電子デバイスは、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な姿勢の変化を検出する1つ以上の姿勢センサと、本明細書に記載する方法のうちのいずれかの動作を実行する、又はその実行を引き起こす手段とを含む。いくつかの実施形態によれば、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な姿勢の変化を検出する1つ以上の姿勢センサとを備えた電子デバイスで使用される情報処理装置は、本明細書に記載する方法のうちのいずれかの動作を実行する、又はその実行を引き起こす手段を含む。 According to some embodiments, the electronic device includes a display generation component, one or more optional input devices, one or more optional touch-sensitive surfaces, and one or more optional. Suitable for one or more sensors that detect the strength of contact between the camera and the optional touch sensing surface, one or more optional audio output generators, and one or more optional devices. Stores sensors, one or more optional tactile output generators, one or more attitude sensors that detect arbitrary selective attitude changes, one or more processors, and one or more programs. One or more programs are configured to be executed by one or more processors, and one or more programs operate in any of the methods described herein. Includes instructions that execute or trigger that execution. According to some embodiments, the computer-readable storage medium stores instructions, which are a display generation component, one or more optional input devices, and an optional one. One or more sensors that detect the strength of contact between the above touch-sensitive surfaces, one or more optional cameras, and one or more optional touch-sensitive surfaces, and one or more optional audio outputs. Performed by an electronic device with a generator, one or more optional device orientation sensors, one or more optional tactile output generators, and one or more optional attitude sensors. When done, cause the device to perform or trigger any of the actions described herein. According to some embodiments, a display generation component, one or more optional input devices, one or more optional touch-sensitive surfaces, and one or more optional cameras. One or more sensors that detect the strength of contact with the optional touch-sensitive surface, one or more optional audio output generators, and one or more optional device-oriented sensors, optionally. It comprises one or more selective tactile output generators, one or more optional attitude sensors, a memory, and one or more processors that execute one or more programs stored in the memory. The electronic device's graphical user interface is an element displayed in any of the methods described herein that are updated in response to input, as described in any of the methods described herein. Includes one or more of. According to some embodiments, the electronic device includes a display generation component, one or more optional input devices, one or more optional touch sensing surfaces, and one or more optional. Suitable for one or more sensors that detect the strength of contact between the camera and the optional touch sensing surface, one or more optional audio output generators, and one or more optional devices. Sensors, one or more optional tactile output generators, one or more attitude sensors that detect arbitrary selective attitude changes, and the operation of any of the methods described herein. Includes means of performing or inducing such execution. According to some embodiments, a display generation component, one or more optional input devices, one or more optional touch-sensitive surfaces, and one or more optional cameras. One or more sensors that detect the strength of contact with the optional touch-sensitive surface, one or more optional audio output generators, and one or more optional device-oriented sensors, optionally. Information processing devices used in electronic devices with one or more selective tactile output generators and one or more attitude sensors for detecting arbitrary selective attitude changes are described herein. Includes means of performing or inducing the action of any of the methods of doing so.

したがって、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な1つ以上の姿勢センサとを備えた電子デバイスに、様々なコンテキストで仮想オブジェクトを表示するための改善された方法及びインターフェースが与えられ、これにより、これらのデバイスの有効性、効率、及びユーザー満足度が向上する。これらの方法及びインターフェースは、様々なコンテキストで仮想オブジェクトを表示する従来の方法を補完する、又はそれらに取って代わることができる。 Thus, a display generation component, one or more optional input devices, one or more optional touch-sensitive surfaces, one or more optional cameras, and an optional touch-sensitive surface. One or more sensors that detect the strength of contact with, one or more optional audio output generators, one or more optional device oriented sensors, and one or more optional sensors. Electronic devices equipped with a tactile output generator and one or more optional attitude sensors are provided with improved methods and interfaces for displaying virtual objects in various contexts, thereby providing them. Improves device effectiveness, efficiency, and user satisfaction. These methods and interfaces can complement or replace traditional methods of displaying virtual objects in various contexts.

記載する様々な実施形態をより良好に理解するためには、以下で、全ての図面を通じて対応する部品を同じ参照番号で示す以下の図面と関連付けて、発明を実施するための形態を参照されたい。 In order to better understand the various embodiments described, please refer to the embodiments below for carrying out the invention in association with the following drawings in which the corresponding parts are referred to by the same reference number throughout all the drawings. ..

いくつかの実施形態による、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。FIG. 3 is a block diagram illustrating a portable multifunction device with a touch-sensitive display, according to some embodiments.

いくつかの実施形態による、イベントハンドリングのための例示的なコンポーネントを示すブロック図である。It is a block diagram which shows the exemplary component for event handling by some embodiments.

いくつかの実施形態による、触知出力モジュールを示すブロック図である。It is a block diagram which shows the tactile output module by some embodiments.

いくつかの実施形態による、タッチスクリーンを有するポータブル多機能デバイスを示す図である。It is a figure which shows the portable multifunctional device which has a touch screen by some embodiments.

いくつかの実施形態による、ディスプレイ及びタッチ感知面を備えた例示的な多機能デバイスを示すブロック図である。FIG. 3 is a block diagram illustrating an exemplary multifunction device with a display and a touch sensitive surface, according to some embodiments.

いくつかの実施形態による、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for a menu of applications on a portable multifunction device, according to some embodiments.

いくつかの実施形態による、ディスプレイと分離したタッチ感知面を備えた多機能デバイスの例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface of a multifunction device with a touch sensitive surface separated from a display, according to some embodiments.

いくつかの実施形態による、動的強度閾値の例を示す図である。It is a figure which shows the example of the dynamic intensity threshold by some embodiments. いくつかの実施形態による、動的強度閾値の例を示す図である。It is a figure which shows the example of the dynamic intensity threshold by some embodiments. いくつかの実施形態による、動的強度閾値の例を示す図である。It is a figure which shows the example of the dynamic intensity threshold by some embodiments.

いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 5 shows a set of sample tactile output patterns according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 5 shows a set of sample tactile output patterns according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 5 shows a set of sample tactile output patterns according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 5 shows a set of sample tactile output patterns according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 5 shows a set of sample tactile output patterns according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 5 shows a set of sample tactile output patterns according to some embodiments.

いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。Diagram illustrating an exemplary user interface, according to some embodiments, displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Is.

いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a diagram showing an exemplary user interface that displays with the representation of the field of view of one or more cameras.

いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface for displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object, according to some embodiments.

いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。FIG. 6 is a flow chart illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。FIG. 6 is a flow chart illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。FIG. 6 is a flow chart illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。FIG. 6 is a flow chart illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。FIG. 6 is a flow chart illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments.

いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a flow chart which shows the process of displaying with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a flow chart which shows the process of displaying with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a flow chart which shows the process of displaying with the representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。According to some embodiments, the first representation of the virtual object is displayed in the first user interface area, the second representation of the virtual object is displayed in the second user interface area, and the third representation of the virtual object. It is a flow chart which shows the process of displaying with the representation of the field of view of one or more cameras.

いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying an item with a visual instruction indicating that an item corresponds to a virtual 3D object according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying an item with a visual instruction indicating that an item corresponds to a virtual 3D object according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying an item with a visual instruction indicating that an item corresponds to a virtual 3D object according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying an item with a visual instruction indicating that an item corresponds to a virtual 3D object according to some embodiments.

いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments.

いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface displaying a dynamically animated calibration user interface object as the device moves one or more cameras, according to some embodiments.

いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an exemplary user interface that constrains the rotation of a virtual object around an axis, according to some embodiments.

いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a figure which shows the typical user interface.

いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。An operation of increasing the second threshold movement size required for the second object operation behavior according to the determination that the first threshold movement size is satisfied with respect to the first object operation behavior according to some embodiments. It is a flow chart explaining. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。An operation of increasing the second threshold movement size required for the second object operation behavior according to the determination that the first threshold movement size is satisfied with respect to the first object operation behavior according to some embodiments. It is a flow chart explaining. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。An operation of increasing the second threshold movement size required for the second object operation behavior according to the determination that the first threshold movement size is satisfied with respect to the first object operation behavior according to some embodiments. It is a flow chart explaining. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。An operation of increasing the second threshold movement size required for the second object operation behavior according to the determination that the first threshold movement size is satisfied with respect to the first object operation behavior according to some embodiments. It is a flow chart explaining.

いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 6 illustrates an exemplary user interface that, according to some embodiments, generates a voice alert according to the determination that movement of a device moves a virtual object out of the display field of view of one or more device cameras.

いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。It is a flow chart which shows the process of displaying a virtual object with different visual characteristics depending on whether an object placement criterion is met, according to some embodiments.

いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。It is a flow chart showing the process of displaying a dynamically animated calibration user interface object as one or more cameras of the device move, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。It is a flow chart showing the process of displaying a dynamically animated calibration user interface object as one or more cameras of the device move, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。It is a flow chart showing the process of displaying a dynamically animated calibration user interface object as one or more cameras of the device move, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。It is a flow chart showing the process of displaying a dynamically animated calibration user interface object as one or more cameras of the device move, according to some embodiments.

いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。It is a flow chart which shows the process of constraining the rotation of a virtual object around an axis by some embodiments.

いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing the second threshold movement size required for the second object operation behavior according to some embodiments, according to the determination that the first threshold movement size is satisfied with the first object operation behavior. It is a flow chart which shows.

いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。It is a flow chart which shows the process of generating a voice alarm according to the determination that the movement of a device moves a virtual object out of the display field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。It is a flow chart which shows the process of generating a voice alarm according to the determination that the movement of a device moves a virtual object out of the display field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。It is a flow chart which shows the process of generating a voice alarm according to the determination that the movement of a device moves a virtual object out of the display field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。It is a flow chart which shows the process of generating a voice alarm according to the determination that the movement of a device moves a virtual object out of the display field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。It is a flow chart which shows the process of generating a voice alarm according to the determination that the movement of a device moves a virtual object out of the display field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。It is a flow chart which shows the process of generating a voice alarm according to the determination that the movement of a device moves a virtual object out of the display field of view of one or more device cameras, according to some embodiments.

仮想オブジェクトは、仮想環境における三次元オブジェクトのグラフィック表現である。仮想オブジェクトと対話して、仮想オブジェクトをアプリケーションユーザーインターフェース(例えば拡張現実環境を表示しない二次元アプリケーションユーザーインターフェース)のコンテキストに表示される状態から、拡張現実環境(例えば物理的世界では入手できない追加情報をユーザーに提供する補足情報によって物理的世界のビューを拡張する環境)のコンテキストに表示される状態に移行させる従来の方法は、複数の別個の入力(例えばジェスチャ及びボタン押圧のシーケンスなど)が所期の結果(例えば拡張現実環境において本物のように、又は望ましいように見えるように仮想オブジェクトのサイズ、場所及び/又は向きを調節するなど)をもたらすことを必要とすることが多い。更に、従来の入力方法は、拡張現実環境を表示することを求める要求を受信してから拡張現実環境を表示するまでに、1つ以上のデバイスカメラを起動して物理的世界のビューをキャプチャするのに必要な時間、並びに/又は拡張現実環境に置かれる可能性がある仮想オブジェクトに関連して物理的世界のビューを分析及び特徴づける(例えば物理的世界のキャプチャされたビュー内でプレーン及び/又は表面を検出する)のに必要な時間による遅延を伴うことが多い。本明細書の実施形態は、様々なコンテキストで仮想オブジェクトを表示し、かつ/又は(例えばアプリケーションユーザーインターフェースのコンテキストで仮想オブジェクトを表示する状態から拡張現実環境で仮想オブジェクトを表示する状態にスイッチングする入力をユーザーが提供できるようにすること、拡張現実環境に仮想オブジェクトを表示する前に(例えば三次元ステージング環境で)仮想オブジェクトの表示特性をユーザーが変更できるようにすること、ユーザーがシステム全体で複数のアプリケーションにわたって仮想オブジェクトを容易に識別できるようにする指示を提供すること、オブジェクトの配置情報を決定しながらオブジェクトの視覚特性を改変すること、較正に必要なデバイスの動きを示すアニメーション化された較正ユーザーインターフェースオブジェクトを提供すること、表示される仮想オブジェクトの軸の周りの回転を制約すること、第1のオブジェクトの操作挙動についての閾値移動大きさが満たされるときに第2のオブジェクトの操作挙動についての閾値移動大きさを増大させること、及び仮想オブジェクトが表示される視野の外に移動したことを示す音声警報を提供することなどによって)これらの仮想オブジェクトと対話する直観的な方法をユーザーに提供する。 A virtual object is a graphic representation of a three-dimensional object in a virtual environment. From the state in which the virtual object is displayed in the context of the application user interface (for example, a two-dimensional application user interface that does not display the augmented reality environment) by interacting with the virtual object, additional information that is not available in the augmented reality environment (for example, the physical world) can be obtained. The traditional way to move to a state that is displayed in the context of an environment that augments the view of the physical world with supplemental information provided to the user requires multiple separate inputs (such as a sequence of gestures and button presses). It is often necessary to bring about the result of (eg, adjusting the size, location and / or orientation of virtual objects to look real or desirable in an augmented reality environment). In addition, traditional input methods activate one or more device cameras to capture a view of the physical world between receiving a request to display an augmented reality environment and displaying the augmented reality environment. Analyzes and characterizes the view of the physical world in relation to the time required for it, and / or virtual objects that may be placed in an augmented reality environment (eg, planes and / or planes within a captured view of the physical world. Or often with a delay due to the time required to detect the surface). An embodiment of the present specification is an input that displays virtual objects in various contexts and / or switches from displaying virtual objects in the context of an application user interface to displaying virtual objects in an extended real environment. Allowing users to provide users, allowing users to change the display characteristics of virtual objects before displaying them in an enhanced real environment (eg in a three-dimensional staging environment), multiple users throughout the system Providing instructions that make it easy to identify virtual objects across applications, modifying the visual properties of objects while determining object placement information, and animated calibrations that show the movement of the device required for calibration. Providing a user interface object, constraining the rotation around the axis of the displayed virtual object, and the operational behavior of the second object when the threshold movement magnitude for the operational behavior of the first object is met. Provides users with an intuitive way to interact with these virtual objects (for example, by increasing the threshold movement magnitude of the) and providing a voice alert to indicate that the virtual objects have moved out of the visible field of view. do.

本明細書に記載するシステム、方法、及びGUIは、複数の方法で仮想/拡張現実環境とのユーザーインターフェース対話を改善する。例えば、本明細書に記載するシステム、方法、及びGUIは、拡張現実環境に仮想オブジェクトを表示し、様々な入力に応じて、拡張現実環境に表示される仮想オブジェクトの見た目を調整することを容易にする。 The systems, methods, and GUIs described herein improve user interface interactions with virtual / augmented reality environments in multiple ways. For example, the systems, methods, and GUIs described herein display virtual objects in an augmented reality environment, making it easy to adjust the appearance of the virtual objects displayed in the augmented reality environment in response to various inputs. To.

以下、図1A~図1B、図2、及び図3は、例示的なデバイスの説明を提供する。図4A~図4B、図5A~図5AT、図6A~図6AJ、図7A~図7P、図11A~図11V、図12A~図12L、図13A~図13M、図14A~図14Z、及び図15A~図15AIは、様々なコンテキストで仮想オブジェクトを表示する例示的なユーザーインターフェースを示す図である。図8A~図8Eは、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す図である。図9A~図9Dは、第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示し、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示し、1つ以上のカメラの視野の表現によって仮想オブジェクトの第3の表現を表示するプロセスを示す図である。図10A~図10Dは、アイテムが仮想三次元オブジェクトに対応することを示す視覚的な指示とともにアイテムを表示するプロセスを示す図である。図16A~図16Gは、オブジェクト配置基準が満たされるかどうかに応じて異なる視覚特性を備えた仮想オブジェクトを表示するプロセスを示す図である。図17A~図17Dは、デバイスの1つ以上のカメラの動きにしたがって動的にアニメーション化された較正ユーインオブジェクトを表示するプロセスを示す図である。図18A~図18Iは、仮想オブジェクトの軸の周りの回転を制約するプロセスを示す図である。図14AA~図14AD及び図19A~図19Hは、第1のオブジェクトの操作挙動について第1の閾値移動大きさが満たされるとの判定にしたがって、第2のオブジェクトの操作挙動について必要とされる第2の閾値移動大きさを増大させるプロセスを示す図である。図20A~図20Fは、デバイスの動きによって仮想オブジェクトが1つ以上のデバイスカメラの表示される視野の外に移動するとの判定にしたがって、音声警報を生成するプロセスを示す図である。図5A~図5AT、図6A~図6AJ、図7A~図7P、図11A~図11V、図12A~図12L、図13A~図13M、図14A~図14Z、及び図15A~図15AIのユーザーインターフェースを使用して、図8A~図8E、図9A~図9D、図10A~図10D、図14AA~図14AD、図16A~図16G、図17A~図17D、図18A~図18I、図19A~図19H、及び図20A~図20Fのプロセスを説明する。
例示的なデバイス
Hereinafter, FIGS. 1A-1B, 2 and 3 provide a description of an exemplary device. 4A-4B, 5A-5AT, 6A-6AJ, 7A-7P, 11A-11V, 12A-12L, 13A-13M, 14A-14Z, and FIGS. 15A-15AI are diagrams illustrating exemplary user interfaces for displaying virtual objects in various contexts. 8A-8E are diagrams illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. 9A-9D display the first representation of the virtual object in the first user interface area, display the second representation of the virtual object in the second user interface area, and view the field of one or more cameras. It is a figure which shows the process which displays the 3rd representation of a virtual object by the representation of. 10A-10D are diagrams illustrating the process of displaying an item with visual instructions indicating that the item corresponds to a virtual 3D object. 16A-16G are diagrams illustrating a process of displaying virtual objects with different visual characteristics depending on whether the object placement criteria are met. 17A-17D are diagrams illustrating the process of displaying a dynamically animated calibration Uin object according to the movement of one or more cameras on the device. 18A-18I are diagrams showing a process of constraining rotation around the axis of a virtual object. 14AA to 14AD and 19A to 19H are required for the operation behavior of the second object according to the determination that the first threshold movement magnitude is satisfied for the operation behavior of the first object. It is a figure which shows the process which increases the threshold value movement magnitude of 2. 20A-20F are diagrams showing a process of generating a voice alert according to the determination that the movement of the device causes the virtual object to move out of the field of view displayed by one or more device cameras. 5A-5AT, 6A-6AJ, 7A-7P, 11A-11V, 12A-12L, 13A-13M, 14A-14Z, and 15A-15AI users. 8A-8E, 9A-9D, 10A-10D, 14AA-14AD, 16A-16G, 17A-17D, 18A-18I, 19A using the interface. The processes of FIGS. 19H and 20A to 20F will be described.
Illustrative device

次に、添付の図面にその実施例を示す実施形態を詳細に参照する。以下の詳細な説明では、記載する様々な実施形態が完全に理解されるように、多数の具体的な詳細を記載する。しかし、記載する様々な実施形態は、これらの具体的な詳細がなくても実施することができることは、当業者には明らかであろう。その他、周知の方法、手順、コンポーネント、回路、及びネットワークについては、実施形態の態様を不要に曖昧にしないよう、詳細には説明しない。 Next, the embodiments shown in the accompanying drawings will be referred to in detail. In the following detailed description, a number of specific details are provided so that the various embodiments described may be fully understood. However, it will be apparent to those skilled in the art that the various embodiments described may be practiced without these specific details. Other well-known methods, procedures, components, circuits, and networks will not be described in detail so as not to unnecessarily obscure aspects of the embodiments.

本明細書では、一部の例において第1、第2などの用語を使用して様々な要素を説明するが、これらの要素は、これらの用語によって限定されないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用されているものである。例えば、記載する様々な実施形態の範囲を逸脱することなく、第1の接点は、第2の接点と称することもでき、同様に、第2の接点を第1の接点と称することもできる。第1の接点及び第2の接点は両方とも接点であるが、文脈が明らかにそうでないことを示していない限り、両者は同じ接点ではない。 Although various elements are described herein using terms such as first and second in some examples, it will also be appreciated that these elements are not limited by these terms. These terms are used only to distinguish one element from another. For example, without departing from the scope of the various embodiments described, the first contact may be referred to as a second contact, and similarly, the second contact may be referred to as a first contact. The first and second contacts are both contacts, but they are not the same contact unless the context clearly indicates that they are not.

本明細書に記載する様々な実施形態の説明で使用する用語は、特定の実施形態を説明することのみを目的とするものであり、限定することを意図したものではない。記載する様々な実施形態の説明及び添付の特許請求の範囲で使用する単数形「a」、「an」、及び「the」は、文脈が明らかにそうでないことを示していない限り、複数形も含むものとして意図されている。また、本明細書で使用する「及び/又は」という用語は、関連する列挙したアイテムのうちの1つ以上の任意の全ての可能な組合せを指し、これらを含むことも理解されたい。更に、本明細書で使用する「含む」、「含み」、「備える」、及び/又は「備え」という用語は、記載する特徴、整数、ステップ、動作、要素、及び/又は構成要素が存在することは指定するが、1つ以上のその他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループが存在すること、又は追加されることを除外しないことも理解されるであろう。 The terms used in the description of the various embodiments described herein are for the purpose of describing a particular embodiment only and are not intended to be limiting. The singular forms "a", "an", and "the" used in the description of the various embodiments described and in the appended claims are also plural unless the context clearly indicates otherwise. Intended to include. It is also appreciated that the term "and / or" as used herein refers to and includes any and all possible combinations of one or more of the related listed items. In addition, the terms "include", "include", "provide", and / or "prepare" as used herein include the features, integers, steps, actions, elements, and / or components described. It is also understood that this does not preclude the existence or addition of one or more other features, integers, steps, actions, elements, components, and / or groups thereof. There will be.

本明細書で使用する「~場合」という用語は、任意選択的に、文脈に応じて「~とき」、又は「~すると」、又は「~と判定したことに応答して」、又は「~を検出したことに応答して」を意味するものと解釈される。同様に、「~と判定された場合」又は「(記載する条件又はイベント)が検出された場合」という表現は、任意選択的に、文脈に応じて「~と判定すると」、又は「~と判定したことに応答して」、又は「(記載する条件又はイベント)が検出されると」、又は「(記載する条件又はイベント)を検出したことに応答して」を意味するものと解釈される。 As used herein, the term "case" is optionally used in response to a determination of "when", "to", or "to" or "to", depending on the context. Is interpreted to mean "in response to the detection of." Similarly, the expressions "when determined to be" or "when (condition or event to be described) are detected" are optionally "determined to be" or "to" depending on the context. It is interpreted to mean "in response to the determination", "when (the condition or event to be described) is detected", or "in response to the detection of (the condition or event to be described)". To.

電子デバイス、それらのデバイスのユーザーインターフェース、及びそれらのデバイスを使用するための関連するプロセスの実施形態を記載する。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)といったデバイスを含むが、これらに限定されない。タッチ感知面(例えばタッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなど、他のポータブル電子デバイスも、任意選択的に使用される。また、いくつかの実施形態では、デバイスは、ポータブル通信デバイスではなく、タッチ感知面(例えばタッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。 Described are electronic devices, user interfaces for those devices, and embodiments of related processes for using those devices. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functions such as a PDA function and / or a music player function. Exemplary embodiments of portable multifunction devices include, but are not limited to, devices such as iPhone®, iPod Touch®, and iPad® manufactured by Apple, Cupertino, Calif., USA. .. Other portable electronic devices, such as laptops or tablet computers with touch sensitive surfaces (eg touch screen displays and / or touchpads), are also optionally used. It should also be appreciated that in some embodiments, the device is not a portable communication device, but a desktop computer having a touch sensitive surface (eg, a touch screen display and / or a touch pad).

以下の説明では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかし、電子デバイスは、任意選択的に、物理的キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理的ユーザーインターフェースデバイスを含むことを理解されたい。 In the following description, an electronic device including a display and a touch sensing surface will be described. However, it should be understood that electronic devices optionally include one or more other physical user interface devices such as physical keyboards, mice, and / or joysticks.

デバイスは、一般に、メモ取りアプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレイヤアプリケーション及び/又はデジタルビデオプレイヤアプリケーションのうちの1つ以上など、様々なアプリケーションをサポートする。 Devices generally include note-taking applications, drawing applications, presentation applications, word processing applications, website creation applications, disk authoring applications, spreadsheet applications, gaming applications, phone applications, video conferencing applications, email applications, instant messaging applications, etc. Supports a variety of applications, including training support applications, photo management applications, digital camera applications, digital video camera applications, web browsing applications, digital music player applications and / or one or more of digital video player applications.

このデバイスで実行される様々なアプリケーションは、任意選択的に、タッチ感知面などの少なくとも1つの共通の物理的ユーザーインターフェースデバイスを使用する。タッチ感知面の1つ以上の機能、並びにデバイスに表示される対応する情報は、任意選択的に、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、調節及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザーにとって直観的かつ透過的なユーザーインターフェースを備える様々なアプリケーションをサポートする。 Various applications running on this device optionally use at least one common physical user interface device, such as a touch sensitive surface. One or more functions of the touch-sensitive surface, as well as the corresponding information displayed on the device, are optionally adjusted and / or modified on an application-by-application basis and / or within each application. Thus, the device's common physical architecture (such as touch-sensitive surfaces) optionally supports a variety of applications with user-intuitive and transparent user interfaces.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注目する。図1Aは、いくつかの実施形態による、タッチ感知ディスプレイシステム112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイシステム112は、便宜上「タッチスクリーン」と呼ばれることもあり、単にタッチ感知ディスプレイと呼ばれることもある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、その他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100(例えばデバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出する1つ以上の強度センサ165を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらのコンポーネントは、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。 Here, attention is paid to an embodiment of a portable device including a touch-sensitive display. FIG. 1A is a block diagram showing a portable multifunction device 100 with a touch-sensitive display system 112 according to some embodiments. The touch-sensitive display system 112 may be referred to as a "touch screen" for convenience, or may simply be referred to as a touch-sensitive display. The device 100 includes a memory 102 (optionally including one or more computer-readable storage media), a memory controller 122, one or more processing units (CPU) 120, a peripheral device interface 118, an RF circuit 108, and an audio circuit. Includes 110, speaker 111, microphone 113, input / output (I / O) subsystem 106, other input or control device 116, and external port 124. The device 100 optionally includes one or more photosensors 164. The device 100 optionally includes one or more intensity sensors 165 that detect the intensity of contact on the device 100 (eg, a touch-sensitive surface such as the touch-sensitive display system 112 of the device 100). The device 100 optionally produces a tactile output on the device 100 (eg, on a touch-sensitive surface such as the touch-sensitive display system 112 of the device 100 or the touchpad 355 of the device 300). Includes one or more tactile output generators 167. These components optionally communicate via one or more communication buses or signal lines 103.

デバイス100は、ポータブル多機能デバイスの1実施例に過ぎず、デバイス100は、任意選択的に、示しているよりコンポーネントの数が多い、若しくは少ないことも、任意選択的に、2つ以上のコンポーネントを組みあわせることも、又は、任意選択的に、コンポーネントの異なる構成若しくは配置を有することもあることを理解されたい。図1Aに示す様々なコンポーネントは、1つ以上の信号処理回路及び/又は特定用途向け集積回路など、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組合せで実装される。 The device 100 is merely one embodiment of a portable multifunctional device, and the device 100 optionally has more or less components than indicated, optionally more than one component. It should be understood that they may be combined or, optionally, have different configurations or arrangements of components. The various components shown in FIG. 1A are implemented in hardware, software, firmware, or a combination thereof, such as one or more signal processing circuits and / or application-specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性固体状態メモリデバイスなどの不揮発性メモリも含む。CPU(単数又は複数)120及び周辺機器インターフェース118などデバイス100の他のコンポーネントによるメモリ102へのアクセスは、任意選択的に、メモリコントローラ122によって制御される。 The memory 102 optionally includes high speed random access memory and optionally also non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. Access to the memory 102 by other components of the device 100, such as the CPU (s) 120 and the peripheral interface 118, is optionally controlled by the memory controller 122.

周辺機器インターフェース118を使用して、デバイスの入力及び出力周辺機器を、CPU(単数又は複数)120及びメモリ102に結合することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。 The peripheral device interface 118 can be used to combine the input and output peripherals of the device to the CPU (s) 120 and memory 102. One or more processors 120 operate or execute various software programs and / or instruction sets stored in memory 102 to perform various functions for device 100 and process data.

いくつかの実施形態では、周辺機器インターフェース118、CPU(単数又は複数)120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一チップ上に実装される。いくつかの他の実施形態では、それらは、任意選択的に、別々のチップ上に実装される。 In some embodiments, the peripheral interface 118, the CPU (s) 120, and the memory controller 122 are optionally mounted on a single chip such as the chip 104. In some other embodiments, they are optionally mounted on separate chips.

RF(radio frequency、高周波)回路108は、電磁信号とも呼ばれるRF信号を受信及び送信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらに限定されるわけではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、及びメモリなど、これらの機能を実行する周知の回路を含む。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。無線通信は、任意選択的に、これらに限定されるわけではないが、移動通信用のグローバルシステム(Global System for Mobile Communication、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケット接続(high-speed downlink packet access、HSDPA)、高速アップリンクパケット接続(high-speed uplink packet access、HSUPA)、Evolution、Data-Only(EV-DO)、HSPA、HSPA+、デュアルセルHSPA(DC-HSPA)、ロングタームエボリューション(long term evolution、LTE)、近距離無線通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi-Fi)(例えばIEEE 802.11a、IEEE 802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用プロトコル(例えばインターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/又はポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば拡張可能メッセージング及びプレゼンスプロトコル(extensible messaging and presence protorol、XMPP)、インスタントメッセージング及びプレゼンスレバレッジング拡張用セッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)など、複数の通信規格、プロトコル、及び技術のうちのいずれか、又は本文書の出願日現在でまだ開発されていない通信プロトコルを含む任意のその他の適当な通信プロトコルを使用する。 The RF (radio frequency) circuit 108 receives and transmits an RF signal, also called an electromagnetic signal. The RF circuit 108 converts an electric signal into an electromagnetic signal or converts an electromagnetic signal into an electric signal and communicates with a communication network and other communication devices via the electromagnetic signal. The RF circuit 108 is optionally, but not limited to, an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, and the like. Includes well-known circuits that perform these functions, such as subscriber identification module (SIM) cards, and memory. The RF circuit 108 is optionally an internet, an intranet, and / or a cellular telephone network, a wireless local area network (LAN) and / or a metropolitan area network, also referred to as the World Wide Web (WWW). Communicates wirelessly with networks such as wireless networks such as (metropolitan area network, MAN) and with other devices. Wireless communication is optional, but not limited to, Global System for Mobile Communication (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink. Link packet connection (high-speed downlink packet access, HSDPA), high-speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA +, dual cell HSPA (DC) -HSPA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple connection (code) division multiple access (CDMA), time division multiple access ( TDMA), Bluetooth®, Wireless Fidelity (Wi-Fi) (eg IEEE 802.11a, IEEE 802.11ac, IEEE 802.11ax, IEEE 802.11b, IEEE 82.11g, and / or IEEE 802.11n), voice over Internet Protocol (VoIP), Wi-MAX, protocols for email (eg Internet message access). Protocol, IMAP) and / or post office protocol (POP), instant messaging (eg, extensible messaging and presence protorol (XMPP), instant messaging and presence leveraged session initiation protocol. (Session Initiation Pro Multiple communication standards, protocols, such as tocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and / or Short Message Service (SMS). And any other suitable communication protocol, including any of the techniques, or communication protocols that have not yet been developed as of the filing date of this document.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザーとデバイス100との間のオーディオインターフェースを提供する。オーディオ回路110は、周辺機器インターフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インターフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インターフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110は、ヘッドセットジャック(例えば図2の212)も含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインターフェースを提供する。 The audio circuit 110, the speaker 111, and the microphone 113 provide an audio interface between the user and the device 100. The audio circuit 110 receives audio data from the peripheral device interface 118, converts the audio data into an electric signal, and transmits the electric signal to the speaker 111. The speaker 111 converts an electrical signal into a human audible sound wave. Further, the audio circuit 110 receives an electric signal converted from a sound wave by the microphone 113. The audio circuit 110 converts the electrical signal into audio data and transmits the audio data to the peripheral interface 118 for processing. The audio data is optionally acquired from the memory 102 and / or the RF circuit 108 by the peripheral interface 118 and / or transmitted to the memory 102 and / or the RF circuit 108. In some embodiments, the audio circuit 110 also includes a headset jack (eg 212 in FIG. 2). The headset jack is between the audio circuit 110 and removable audio input / output peripherals such as output-only headphones or headsets with both outputs (eg headphones for one or both ears) and inputs (eg microphones). Provides an interface for.

I/Oサブシステム106は、タッチ感知ディスプレイシステム112及びその他の入力又は制御デバイス116などのデバイス100上の入出力周辺機器を周辺機器インターフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御デバイスのための1つ以上の入力コントローラ160を含む。この1つ以上の入力コントローラ160は、他の入力又は制御デバイス116から電気信号を受信し、それらに電気信号を送信する。その他の入力又は制御デバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。一部の代替の実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、スタイラス、及び/又はマウスなどのポインタデバイスのうちのいずれかと結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113のボリューム制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば図2の206)を含む。 The I / O subsystem 106 couples input / output peripherals on the device 100, such as the touch-sensitive display system 112 and other input or control devices 116, to the peripheral interface 118. The I / O subsystem 106 optionally includes a display controller 156, an optical sensor controller 158, an intensity sensor controller 159, a haptic feedback controller 161 and one or more input controllers 160 for other input or control devices. include. The one or more input controllers 160 receive electrical signals from other inputs or control devices 116 and transmit electrical signals to them. Other input or control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, the input controller (s) 160 is optionally coupled with any of a pointer device such as a keyboard, infrared port, USB port, stylus, and / or mouse. (Or not bound to either). One or more buttons (eg 208 in FIG. 2) optionally include up / down buttons for volume control of the speaker 111 and / or microphone 113. The one or more buttons optionally include a push button (eg 206 in FIG. 2).

タッチ感知ディスプレイシステム112は、デバイスとユーザーとの間の入力インターフェース及び出力インターフェースを提供する。ディスプレイコントローラ156は、タッチ感知ディスプレイシステム112から電気信号を受信し、かつ/又はタッチ感知ディスプレイシステム112に電気信号を送信する。タッチ感知ディスプレイシステム112は、ユーザーに視覚出力を表示する。視覚出力は、任意選択的に、グラフィック、テキスト、アイコン、ビデオ、及びこれらの任意の組合せ(「グラフィック」と総称する)を含む。いくつかの実施形態では、視覚出力の一部又は全ては、ユーザーインターフェースオブジェクトに対応する。本明細書で使用する「アフォーダンス」という用語は、ユーザー対話型のグラフィカルユーザーインターフェースオブジェクト(例えばそのグラフィカルユーザーインターフェースオブジェクトに向けられた入力に対して応答するように構成されたグラフィカルユーザーインターフェースオブジェクト)を指す。ユーザー対話型のグラフィカルユーザーインターフェースオブジェクトの例としては、これらに限定されるわけではないが、ボタン、スライダ、アイコン、選択可能メニューアイテム、スイッチ、ハイパーリンク、又はその他のユーザーインターフェース制御が挙げられる。 The touch-sensitive display system 112 provides an input interface and an output interface between the device and the user. The display controller 156 receives an electrical signal from the touch-sensitive display system 112 and / or transmits the electrical signal to the touch-sensitive display system 112. The touch-sensitive display system 112 displays a visual output to the user. The visual output optionally includes graphics, text, icons, videos, and any combination thereof (collectively referred to as "graphics"). In some embodiments, some or all of the visual output corresponds to a user interface object. As used herein, the term "affordance" refers to a user-interactive graphical user interface object (eg, a graphical user interface object configured to respond to input directed to that graphical user interface object). .. Examples of user-interactive graphical user interface objects include, but are not limited to, buttons, sliders, icons, selectable menu items, switches, hyperlinks, or other user interface controls.

タッチ感知ディスプレイシステム112は、触覚及び/又は触知接触に基づくユーザーからの入力を受け付けるタッチ感知面、センサ、又はセンサセットを有する。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156(任意の関連するモジュール及び/又はメモリ102内の命令セットも含む)は、タッチ感知ディスプレイシステム112上の接触(及びその接触の任意の動き又は中断)を検出し、検出した接触をタッチ感知ディスプレイシステム112に表示されるユーザーインターフェースオブジェクト(例えば1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。いくつかの実施形態では、タッチ感知ディスプレイシステム112とユーザーとの間の接触点は、ユーザーの指又はスタイラスに対応する。 The touch-sensitive display system 112 comprises a touch-sensitive surface, sensor, or sensor set that accepts input from the user based on tactile and / or tactile contact. The touch-sensitive display system 112 and the display controller 156 (including any related module and / or instruction set in memory 102) detect a contact (and any movement or interruption of that contact) on the touch-sensitive display system 112. Then, the detected contact is converted into a dialogue with a user interface object (eg, one or more softkeys, icons, web pages, or images) displayed on the touch-sensitive display system 112. In some embodiments, the point of contact between the touch-sensitive display system 112 and the user corresponds to the user's finger or stylus.

タッチ感知ディスプレイシステム112は、任意選択的に、LCD(liquid crystal display、液晶ディスプレイ)技術、LPD(light emitting polymer display、発光ポリマーディスプレイ)技術、又はLED(light emitting diode、発光ダイオード)技術を使用するが、他の実施形態では、他の表示技術を使用する。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は、任意選択的に、これらに限定されるわけではないが、静電容量技術、抵抗性技術、赤外線技術、及び表面音響波技術、並びにタッチ感知ディスプレイシステム112との1つ以上の接触点を決定するその他の近接センサレイ又は他の要素など、現在既知の、又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触と、接触の任意の動き又は中断とを検出する。いくつかの実施形態では、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などの、投影型相互静電容量感知技術が使用される。 The touch-sensitive display system 112 optionally uses LCD (liquid crystal display) technology, LPD (light emitting polymer display) technology, or LED (light emitting diode) technology. However, in other embodiments, other display techniques are used. The touch-sensitive display system 112 and the display controller 156 are optionally, but not limited to, capacitive technology, resistance technology, infrared technology, and surface acoustic wave technology, as well as touch-sensitive display system 112. Contact and contact using any of the currently known or upcoming touch sensing techniques, such as other proximity sensorlays or other factors that determine one or more points of contact with Detects any movement or interruption. In some embodiments, projected mutual capacitance sensing techniques such as iPhone®, iPod Touch®, and iPad® manufactured by Apple, Cupertino, Calif., USA are used. ..

タッチ感知ディスプレイシステム112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンのビデオ解像度は、400dpiを超える(例えば500dpi、800dpi、又はそれより高い)。ユーザーは、任意選択的に、スタイラス、指などの任意の好適なオブジェクト又は付属物を使用して、タッチ感知ディスプレイシステム112に接触する。いくつかの実施形態では、ユーザーインターフェースは、指による接触及びジェスチャで機能するように設計されるが、指による接触及びジェスチャは、指がタッチスクリーンと接触する面積が大きいために、スタイラスによる入力よりも精度が低くなる可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、精密なポインタ/カーソル位置、又はユーザーの望むアクションを実行するコマンドに変換する。 The touch-sensitive display system 112 optionally has a video resolution of greater than 100 dpi. In some embodiments, the video resolution of the touch screen exceeds 400 dpi (eg, 500 dpi, 800 dpi, or higher). The user optionally touches the touch-sensitive display system 112 using any suitable object or accessory such as a stylus or finger. In some embodiments, the user interface is designed to work with finger contact and gestures, but finger contact and gestures are more than stylus input due to the large area of finger contact with the touch screen. May be less accurate. In some embodiments, the device translates rough finger input into precise pointer / cursor positions, or commands that perform user-desired actions.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッド(図示せず)を含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチ感知ディスプレイシステム112から分離したタッチ感知面、又はタッチスクリーンによって形成されるタッチ感知面の延長部である。 In some embodiments, in addition to the touch screen, the device 100 optionally includes a touchpad (not shown) for activating or deactivating a particular function. In some embodiments, the touchpad, unlike a touchscreen, is a touch-sensitive area of the device that does not display visual output. The touchpad is optionally a touch-sensitive surface separated from the touch-sensitive display system 112, or an extension of the touch-sensitive surface formed by the touch screen.

デバイス100は、また、様々なコンポーネントに電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えばバッテリ、交流(AC))、再充電システム、電源異常検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば発光ダイオード(LED))、並びにポータブルデバイスにおける電力の生成、管理及び分配に関連するその他の任意のコンポーネントを含む。 The device 100 also includes a power system 162 that powers various components. The power system 162 optionally includes a power management system, one or more power sources (eg, battery, alternating current (AC)), a recharging system, a power anomaly detection circuit, a power converter or inverter, a power status indicator (eg, a light emitting diode). (LED)), as well as any other component related to power generation, management and distribution in portable devices.

また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示している。光センサ164(単数又は複数)は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164(単数又は複数)は、1つ以上のレンズを通じて投影される環境からの光を受光し、この光を画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも呼ばれる)と協働して、光センサ(単数又は複数)164は、任意選択的に、静止画像及び/又はビデオをキャプチャする。いくつかの実施形態では、光センサを、デバイスの前面上のタッチ感知ディスプレイシステム112の反対側のデバイス100の背面上に位置付けて、タッチスクリーンを静止画像及び/又はビデオ画像取得を取得するビューファインダとして使用することができるようにする。いくつかの実施形態では、別の光センサを、デバイスの前面に位置付けて、ユーザーの画像が取得されるようにする(例えば自撮りのため、ユーザーがビデオ会議に参加しながらタッチスクリーン上で他のビデオ会議参加者を見るためなど)。 Further, the device 100 optionally includes one or more optical sensors 164. FIG. 1A shows an optical sensor coupled to an optical sensor controller 158 in the I / O subsystem 106. The optical sensor 164 (s) optionally include a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) phototransistor. The photosensor 164 (s) receives light from the environment projected through one or more lenses and converts this light into data representing an image. In cooperation with the imaging module 143 (also referred to as the camera module), the optical sensor (s) 164 optionally captures still images and / or video. In some embodiments, the light sensor is positioned on the back of the device 100 on the opposite side of the touch-sensitive display system 112 on the front of the device and the touch screen is a viewfinder to acquire still and / or video images. To be able to be used as. In some embodiments, another light sensor is positioned in front of the device so that the user's image is captured (eg, for self-portraits, while the user is attending a video conference while others on the touch screen. To watch video conference participants, etc.).

また、デバイス100は、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示している。接触強度センサ(単数又は複数)165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又はその他の強度センサ(例えばタッチ感知面上の接触の力(又は圧力)を測定するために使用されるセンサ)を含む。接触強度センサ(単数又は複数)165は、環境から接触強度情報(例えば圧力情報又は圧力情報の代わりになるもの)を受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面上に位置するタッチスクリーンディスプレイシステム112の反対側のデバイス100の背面上に位置する。 The device 100 also optionally includes one or more contact strength sensors 165. FIG. 1A shows a contact strength sensor coupled to a strength sensor controller 159 in the I / O subsystem 106. The contact strength sensor (s) 165 may optionally be one or more piezo resistance strain gauges, capacitive force sensors, electrical force sensors, pressure power sensors, optical force sensors, capacitive touch sensing surfaces, or Other strength sensors include, for example, sensors used to measure the force (or pressure) of contact on the touch sensing surface. The contact strength sensor (s) 165 receives contact strength information (eg, pressure information or an alternative to pressure information) from the environment. In some embodiments, the at least one contact strength sensor is juxtaposed with or in close proximity to a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, the at least one contact strength sensor is located on the back surface of the device 100 opposite the touch screen display system 112 located on the front surface of the device 100.

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インターフェース118に結合された近接センサ166を示している。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に結合される。いくつかの実施形態では、多機能デバイスがユーザーの耳の近くに配置されているとき(例えばユーザーが電話しているとき)に、近接センサは、タッチ感知ディスプレイシステム112をオフにして、使用不可状態にする。 The device 100 also optionally includes one or more proximity sensors 166. FIG. 1A shows a proximity sensor 166 coupled to a peripheral interface 118. Alternatively, the proximity sensor 166 is coupled to the input controller 160 in the I / O subsystem 106. In some embodiments, when the multifunction device is located near the user's ear (eg, when the user is calling), the proximity sensor turns off the touch-sensitive display system 112 and is unavailable. Put it in a state.

また、デバイス100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示している。いくつかの実施形態では、触知出力生成器(単数又は複数)167は、スピーカ若しくはその他のオーディオコンポーネントなどの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ若しくはその他の触知出力生成コンポーネント(例えば電気信号をデバイス上での触知出力に変換するコンポーネント)などのエネルギーを直線状の動きに変換する電気機械デバイスを含む。触知出力生成器(単数又は複数)167は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザーが感知できる触知出力をデバイス100上で生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向に(例えばデバイス100の表面の内/外に)、又は横方向に(例えばデバイス100の表面と同じプレーン内で前後に)移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面上に位置するタッチ感知ディスプレイシステム112の反対側のデバイス100の背面上に位置する。 The device 100 also optionally includes one or more tactile output generators 167. FIG. 1A shows a tactile output generator coupled to a tactile feedback controller 161 in the I / O subsystem 106. In some embodiments, the tactile output generator (s) 167 is one or more electroacoustic devices such as speakers or other audio components and / or motors, solenoids, electroactive polymers, piezoelectric actuators. Includes electromechanical devices that convert energy into linear motion, such as electrostatic actuators or other tactile output generating components (eg, components that convert electrical signals to tactile output on the device). The tactile output generator (s) 167 receives a tactile feedback generation command from the tactile feedback module 133 and generates a tactile output perceptible to the user of the device 100 on the device 100. In some embodiments, the at least one tactile output generator is juxtaposed with or close to a touch-sensitive surface (eg, touch-sensitive display system 112) and optionally has a vertical touch-sensitive surface. Tactile output is generated by moving directionally (eg, inside / outside the surface of the device 100) or laterally (eg, back and forth within the same plane as the surface of the device 100). In some embodiments, the at least one tactile output generator sensor is located on the back surface of the device 100 opposite the touch sensitive display system 112 located on the front surface of the device 100.

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インターフェース118に結合された加速度計168を示している。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、タッチスクリーンディスプレイに横長表示又は縦長表示で表示される。デバイス100は、任意選択的に、加速度計(単数又は複数)168に加えて、磁気計(図示せず)並びにデバイス100の位置及び向き(例えば縦長又は横長)に関する情報を取得するGPS(又はGLONASS若しくはその他のグローバルナビゲーションシステム)受信機(図示せず)を含む。 The device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows an accelerometer 168 coupled to the peripheral interface 118. Alternatively, the accelerometer 168 is optionally coupled to the input controller 160 in the I / O subsystem 106. In some embodiments, the information is displayed in landscape or portrait display on a touch screen display based on the analysis of data received from one or more accelerometers. The device 100 optionally acquires information about the accelerometer (s) 168, as well as the magnetometer (not shown) and the position and orientation (eg, portrait or landscape) of the device 100 (or GLONASS). Or other global navigation system) receivers (not shown) included.

いくつかの実施形態では、メモリ102に記憶されたソフトウェアコンポーネントは、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、触覚フィードバックモジュール(又は命令セット)133、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示すように、メモリ102は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、タッチ感知ディスプレイシステム112の様々な領域を、どんなアプリケーション、ビュー、又はその他の情報が占有しているかを示す表示状態、デバイスの様々なセンサ及びその他の入力又は制御デバイス116から取得される情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置及び/又は姿勢情報、のうちの1つ以上を含む。 In some embodiments, the software components stored in the memory 102 are operating system 126, communication module (or instruction set) 128, contact / motion module (or instruction set) 130, graphic module (or instruction set) 132, It includes a haptic feedback module (or instruction set) 133, a text input module (or instruction set) 134, a Global Positioning System (GPS) module (or instruction set) 135, and an application (or instruction set) 136. Further, in some embodiments, the memory 102 stores the device / global internal state 157, as shown in FIGS. 1A and 3. The device / global internal state 157 covers various areas of the active application state, touch-sensitive display system 112, which application, view, or other, indicating which application is active if there is an application currently active. Display state indicating whether the information is occupied, sensor state including information obtained from various sensors and other inputs or control devices 116 of the device, and position and / or posture information regarding the position and / or posture of the device. , Including one or more of.

オペレーティングシステム126(例えばiOS、Darwin、RTXC、LINUX(登録商標)、UNIX(登録商標)、OS X、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、全体的なシステムタスク(例えばメモリ管理、記憶デバイス制御、電力管理など)を制御及び管理する様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェアコンポーネントとソフトウェアコンポーネントとの間の通信を円滑化する。 The operating system 126 (eg, an embedded operating system such as iOS, Darwin, RTXC, LINUX® , UNIX®, OS X, WINDOWS®, or VxWorks® ) is the overall system. It includes various software components and / or drivers that control and manage tasks (eg, memory management, storage device control, power management, etc.) and facilitate communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を円滑化し、また、RF回路108及び/又は外部ポート124が受信するデータを処理する様々なソフトウェアコンポーネントも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)といったいくつかのデバイスで使用される30ピンコネクタと同じである、又はこれに類似している、及び/又はこれと互換性のあるマルチピン(例えば30ピン)コネクタである。いくつかの実施形態では、外部ポートは、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)といったいくつかのデバイスで使用されるLightning(登録商標)コネクタと同じである、又はこれに類似している、及び/又はこれと互換性のあるLightning(登録商標)コネクタである。 The communication module 128 also includes various software components that facilitate communication with other devices via one or more external ports 124 and / or process data received by the RF circuit 108 and / or the external port 124. External ports 124 (eg, Universal Serial Bus (USB), FIREWIRE®, etc.) can be directly or indirectly over a network (eg, Internet, wireless LAN, etc.) to other devices. Adapted to connect. In some embodiments, the external port is a 30-pin used in some devices such as the iPhone®, iPod Touch®, and iPad® made by Apple, Cupertino, Calif., USA. A multi-pin (eg, 30-pin) connector that is the same as, or similar to, and / or compatible with the connector. In some embodiments, the external port is used in some devices such as the iPhone®, iPod Touch® , and iPad® made by Apple, Apple, California, USA. A Lightning® connector that is the same as, or similar to, and / or compatible with a registered trademark ) connector.

接触/動きモジュール130は、任意選択的に、タッチ感知ディスプレイシステム112との接触を(ディスプレイコントローラ156と協働して)検出し、また他のタッチ感知デバイス(例えばタッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が発生したかを判定する(例えば指が下りるイベントを検出する)、接触の強度(例えば接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定する、接触の移動があるかを判定してタッチ感知面にわたるその移動を追跡する(例えば1つ以上の指のドラッグイベントを検出する)、接触が終了したかどうかを判定する(例えば指が上がるイベント又は接触の中断を検出する)など、(例えば指又はスタイラスによる)接触の検出に関連する様々な動作を実行する様々なソフトウェアコンポーネントを含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を決定することを含む。これらの動作は、任意選択的に、個別の接触(例えば1本の指による接触又は1つのスタイラスによる接触)、又は複数の同時接触(例えば「マルチタッチ」/複数本の指による接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 The contact / motion module 130 optionally detects contact with the touch-sensitive display system 112 (in cooperation with the display controller 156) and also with other touch-sensitive devices (eg, touchpad or physical click wheel). Detects contact. The contact / motion module 130 determines if a contact has occurred (eg, detects a finger descent event), determines the strength of the contact (eg, a contact force or pressure, or an alternative to a contact force or pressure). , Determine if there is a contact movement and track its movement across the touch-sensitive surface (eg, detect a drag event for one or more fingers), determine if the contact has ended (eg, a finger lift event) Includes various software components that perform various actions related to contact detection (eg, by finger or stylus), such as (or detect interruption of contact). The contact / motion module 130 receives contact data from the touch sensing surface. Determining the movement of a contact point represented by a series of contact data is optionally the speed (magnitude), velocity (magnitude and direction), and / or acceleration (magnitude and /) of the contact point. Or change of direction) includes determining. These actions are optionally applied to individual contacts (eg, one-finger contact or one stylus contact) or multiple simultaneous contacts (eg, "multi-touch" / multiple finger contact). Will be done. In some embodiments, the contact / motion module 130 and the display controller 156 detect contact on the touchpad.

接触/動きモジュール130は、任意選択的に、ユーザーによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指のタップジェスチャの検出は、(例えばアイコンの位置で)指が下りるイベントを検出した後に、指が下りるイベントと同じ位置(又は実質的に同じ位置)で指が上がる(リフトオフ)イベントを検出することを含む。別の実施例では、タッチ感知面上の指のスワイプジェスチャの検出は、指が下りるイベントを検出した後に、1つ以上の指のドラッグイベントを検出し、その後に、指が上がる(リフトオフ)イベントを検出することを含む。スタイラスについても同様に、タップ、スワイプ、ドラッグ、及びその他のジェスチャは、任意選択的に、そのスタイラスについての特定の接触パターンを検出することによって検出される。 The contact / motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different detected contact movements, timings, and / or intensities). Therefore, gestures are optionally detected by detecting a particular contact pattern. For example, finger tap gesture detection detects a finger descent event (eg at the icon position) and then a finger lift event at the same position (or substantially the same position) as the finger descent event. Including to detect. In another embodiment, the detection of a finger swipe gesture on a touch-sensitive surface detects a finger descent event, then one or more finger drag events, followed by a finger lift event. Includes detecting. Similarly for a stylus, taps, swipes, drags, and other gestures are optionally detected by detecting a particular contact pattern for the stylus.

いくつかの実施形態では、指のタップジェスチャの検出は、指が下りるイベントを検出してから指が上がるイベントを検出するまでの時間の長さに依存するが、指が下りるイベントを検出してから指が上がるイベントを検出するまでの間の指の接触の強度には左右されない。いくつかの実施形態では、タップジェスチャは、タップ中の指の接触の強度が、軽い押圧又は深い押圧の強度閾値など所与の強度閾値(公称接触検出強度閾値よりも大きい)を満たすかどうかに関わりなく、指が下りるイベントから指が上がるイベントまでの間の時間の長さが所定の値よりも小さい(例えば0.1秒、0.2秒、0.3秒、0.4秒、又は0.5秒よりも短い)との判定にしたがって検出される。したがって、指のタップジェスチャは、その特定の入力基準が満たされるために接触の特性強度が所与の強度閾値を満たすことを必要としない、特定の入力基準を満たせばよい。明確にするために、指が下りるイベントが検出されるためには、タップジェスチャにおける指の接触は、通常は、それを下回ると接触が検出されない公称接触検出強度閾値を満たす必要がある。同様の分析は、スタイラスによる接触またはその他の接触によるタップジェスチャの検出にも当てはまる。デバイスがタッチ感知面上をホバリングする指又はスタイラスの接触を検出することができる場合には、公称接触検出強度閾値は、任意選択的に、指又はスタイラスとタッチ感知面との間の物理的接触に対応しない。 In some embodiments, the detection of a finger tap gesture depends on the length of time between detecting a finger-down event and detecting a finger-up event, but detecting a finger-down event. It does not depend on the strength of finger contact between the time when the finger is raised and the time when the event is detected. In some embodiments, the tap gesture determines whether the strength of finger contact during tapping meets a given strength threshold (greater than the nominal touch detection strength threshold), such as a light or deep pressure strength threshold. Regardless, the length of time between the finger-down event and the finger-up event is less than a given value (eg 0.1 seconds, 0.2 seconds, 0.3 seconds, 0.4 seconds, or It is detected according to the determination (shorter than 0.5 seconds). Therefore, the finger tap gesture may meet a particular input criterion, which does not require the characteristic strength of the contact to meet a given intensity threshold in order for that particular input criterion to be met. For clarity, the finger contact in the tap gesture must meet the nominal contact detection intensity threshold, where no contact is normally detected below that, in order for the finger descent event to be detected. Similar analysis applies to the detection of tap gestures by stylus contact or other contact. If the device is capable of detecting contact with a finger or stylus hovering over the touch-sensitive surface, the nominal contact detection intensity threshold is optionally the physical contact between the finger or stylus and the touch-sensitive surface. Does not correspond to.

同じ概念が、他のタイプのジェスチャにも同様に当てはまる。例えば、スワイプジェスチャ、ピンチジェスチャ、デピンチジェスチャ、及び/又は長押しジェスチャは、任意選択的に、ジェスチャに含まれる接触の強度と無関係であるか、又はジェスチャを行う接触(単数又は複数)が認識されるのに強度閾値に到達することを必要としない基準が満たされることに基づいて、検出される。例えば、スワイプジェスチャは、1つ以上の接触の移動量に基づいて検出され、ピンチジェスチャは、2つ以上の接触の互いに向かう移動に基づいて検出され、デピンチジェスチャは、2つ以上の接触の互いに遠ざかる移動に基づいて検出され、長押しジェスチャは、移動量が閾値移動量未満であるタッチ感知面上の接触の持続時間に基づいて検出される。したがって、特定のジェスチャ認識基準が、その特定のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としないという記述は、ジェスチャにおける接触(単数又は複数)がそれぞれの強度閾値に達しない場合にもその特定のジェスチャ認識基準を満たすことができ、またジェスチャにおける接触のうちの1つ以上がそれぞれの強度閾値に達しない、又はそれを超えない状況でも満たすことができることを意味している。いくつかの実施形態では、タップジェスチャは、接触が所定の期間中にそれぞれの強度閾値を上回る又は下回るかどうか関わらず、指が下りるイベント及び指が上がるイベントがその所定の期間内に検出されたとの判定に基づいて検出され、スワイプジェスチャは、接触の移動の終わりにその接触がそれぞれの強度閾値を上回る場合でも、接触の移動が所定の大きさよりも大きいとの判定に基づいて検出される。ジェスチャの検出が、ジェスチャを行う接触の強度の影響を受ける実施態様(例えば、デバイスが、接触の強度が強度閾値を上回るときには早めに長押しを検出する、又は接触の強度が高いときにはタップ入力の検出を遅らせる)でも、接触が特定の強度閾値に達しない状況でそのジェスチャを認識する基準を満たすことができる限り(例えば、ジェスチャを認識するためにかかる時間の長さが変化する場合でも)、これらのジェスチャの検出は、接触が特定の強度閾値に到達することを必要としない。 The same concept applies to other types of gestures as well. For example, swipe gestures, pinch gestures, depinch gestures, and / or long press gestures are optionally independent of the strength of the contact contained in the gesture or recognized by the contact (s) making the gesture. Detected on the basis that criteria that do not require reaching the intensity threshold to be met are met. For example, a swipe gesture is detected based on the amount of movement of one or more contacts, a pinch gesture is detected based on the reciprocal movement of two or more contacts, and a depinch gesture is a depinch gesture of two or more contacts. Detected on the basis of movement away from each other, long press gestures are detected based on the duration of contact on the touch-sensitive surface where the movement amount is less than the threshold movement amount. Therefore, the statement that a particular gesture recognition criterion does not require the strength of the contact (s) to meet the respective intensity thresholds in order for that particular gesture recognition criterion to be met is the statement that the contact (s) in the gesture. A situation in which a particular gesture recognition criterion can be met even if multiple) do not reach their respective intensity thresholds, and one or more of the contacts in the gesture do not reach or exceed their respective intensity thresholds. But it means that it can be met. In some embodiments, the tap gesture detects a finger-down event and a finger-up event within a predetermined period of time, regardless of whether the contact is above or below the respective intensity thresholds. The swipe gesture is detected based on the determination that the movement of the contact is greater than a predetermined magnitude, even if the contact exceeds the respective intensity thresholds at the end of the movement of the contact. Gesture detection is affected by the strength of the contact making the gesture (eg, the device detects a long press early when the strength of the contact exceeds the strength threshold, or tap input when the strength of the contact is high). (Delaying detection), but as long as the criteria for recognizing the gesture can be met in situations where the contact does not reach a certain intensity threshold (eg, even if the length of time it takes to recognize the gesture changes). Detection of these gestures does not require the contact to reach a particular strength threshold.

いくつかの状況では、接触強度閾値、持続時間閾値、及び移動閾値を、様々に異なる組合せで組み合わせて、同じ入力要素又は領域に向けられた2つ以上の異なるジェスチャを区別するヒューリスティックスを作成して、同じ入力要素との複数の異なる対話によってより豊かなユーザー対話及び応答のセットを提供することができるようにする。ジェスチャ認識基準の特定のセットが、その特定のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としないという記述は、ジェスチャがそれぞれの強度閾値を超える強度を有する接触を含むときに満たされる基準を有する他のジェスチャを識別するための他の強度に依存するジェスチャ認識基準をそれと同時に評価することを排除しない。例えば、いくつかの状況では、そのジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない第1のジェスチャの第1のジェスチャ認識基準が、接触(単数又は複数)がそれぞれの強度閾値に到達することに依存する第2のジェスチャの第2のジェスチャ認識基準と競合する。このような競合時には、ジェスチャは、任意選択的に、第2のジェスチャの第2のジェスチャ認識基準が先に満たされた場合には、第1のジェスチャの第1のジェスチャ認識基準を満足しているものとは認識されない。例えば、接触が所定の移動量を移動する前にそれぞれの強度閾値に達した場合には、スワイプジェスチャではなく深押しジェスチャが検出される。逆に、接触が所定の移動量を移動した後でそれぞれの強度閾値に達した場合には、深押しジェスチャではなくスワイプジェスチャが検出される。このような状況でも、やはり、第1のジェスチャの第1のジェスチャ認識基準は、第1のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない。これは、ジェスチャの終わりまで接触がそれぞれの強度閾値を下回ったままであったとしたら(例えばそれぞれの強度閾値を上回る強度まで増大しない接触を有するスワイプジェスチャの場合)、そのジェスチャは、第1のジェスチャ認識基準によってスワイプジェスチャとして認識されているはずであるからである。したがって、その特定のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない特定のジェスチャ認識基準は、(A)いくつかの状況では、(例えばタップジェスチャの)強度閾値に関して接触の強度を無視し、かつ/又は(B)いくつかの状況では、競合する強度依存ジェスチャ認識基準(例えば長押しジェスチャの認識基準)のセットがある入力を強度依存ジェスチャに対応するものとして認識した後で、その特定のジェスチャ認識基準がその入力に対応するジェスチャ(例えば深押しジェスチャと認識をめぐって競合する長押しジェスチャ)を認識した場合には、その特定のジェスチャ認識基準(例えば長押しジェスチャの認識基準)が満たされないという意味で、依然として強度閾値に関して接触の強度に依存する。 In some situations, contact strength thresholds, duration thresholds, and movement thresholds can be combined in various different combinations to create heuristics that distinguish between two or more different gestures directed at the same input element or region. Allows a richer set of user dialogues and responses to be provided by multiple different dialogues with the same input element. The statement that a particular set of gesture recognition criteria does not require the strength of the contact (s) to meet each strength threshold in order for that particular gesture recognition criterion to be met is that the gesture does not require each strength threshold to be met. It does not preclude the simultaneous evaluation of other strength-dependent gesture recognition criteria to identify other gestures that have criteria that are met when including contacts with intensities greater than. For example, in some situations, the first gesture recognition criterion of the first gesture does not require the contact (s) intensity to meet the respective intensity thresholds in order for the gesture recognition criterion to be met. It competes with the second gesture recognition criterion of the second gesture, which depends on the contact (s) reaching each intensity threshold. During such a conflict, the gesture optionally satisfies the first gesture recognition criterion of the first gesture if the second gesture recognition criterion of the second gesture is met first. It is not recognized as being. For example, if the contact reaches each intensity threshold before moving a predetermined amount of movement, a deep push gesture is detected instead of a swipe gesture. Conversely, if the contact reaches each intensity threshold after moving a predetermined amount of movement, a swipe gesture is detected instead of a deep push gesture. Even in such a situation, the first gesture recognition criterion of the first gesture still requires that the strength of the contact (s) satisfy the respective intensity thresholds in order for the first gesture recognition criterion to be met. Do not. This is because if the contact remains below each intensity threshold until the end of the gesture (for example, in the case of a swipe gesture with a contact that does not increase to an intensity above each intensity threshold), the gesture recognizes the first gesture. This is because it should be recognized as a swipe gesture by the standard. Therefore, certain gesture recognition criteria that do not require the contact (s) strength to meet their respective intensity thresholds in order for that particular gesture recognition criterion to be met are (A) in some situations (A). Ignore the strength of the contact with respect to the intensity threshold (eg for tap gestures) and / or (B) in some situations, intensify the input with a set of competing intensity-dependent gesture recognition criteria (eg, long-press gesture recognition criteria). If, after recognizing a dependent gesture, the particular gesture recognition criterion recognizes the gesture corresponding to that input (eg, a deep press gesture and a long press gesture that competes for recognition), that particular gesture. It still depends on the strength of the contact with respect to the intensity threshold in the sense that the recognition criteria (eg, the recognition criteria for long press gestures) are not met.

グラフィックモジュール132は、表示されるグラフィックの視覚的影響(例えば、輝度、透明度、彩度、コントラスト、又はその他の視覚特性)を変更するコンポーネントなど、タッチ感知ディスプレイシステム112又はその他のディスプレイ上でグラフィックをレンダリング及び表示する様々な既知のソフトウェアコンポーネントを含む。本明細書で使用する「グラフィック」という用語は、これらに限定されるわけではないが、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザーインターフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなど、ユーザーに対して表示することができる任意のオブジェクトを含む。 The graphics module 132 displays graphics on a touch-sensitive display system 112 or other display, such as components that change the visual effects of the displayed graphics (eg, brightness, transparency, saturation, contrast, or other visual characteristics). Includes various known software components to render and display. The term "graphics" as used herein is not limited to these, but includes text, web pages, icons (such as user interface objects including softkeys), digital images, videos, animations, etc. Includes any object that can be displayed against it.

いくつかの実施形態では、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて座標データ及び他のグラフィック特性データと共に表示されるグラフィックを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力するスクリーン画像データを生成する。 In some embodiments, the graphic module 132 stores data representing the graphic used. Each graphic is optionally assigned a corresponding code. The graphic module 132 receives one or more codes specifying a graphic to be displayed together with coordinate data and other graphic characteristic data as needed from an application or the like, and then outputs screen image data to the display controller 156. Generate.

触覚フィードバックモジュール133は、デバイス100とのユーザー対話に応答して、触知出力生成器(単数又は複数)167を使用してデバイス100上の1つ以上の位置で触知出力を生成する命令(例えば触覚フィードバックコントローラ161によって使用される命令)を生成する様々なソフトウェアコンポーネントを含む。 The tactile feedback module 133 uses the tactile output generator (s) 167 to generate tactile outputs at one or more locations on the device 100 in response to user interaction with the device 100 (s). Includes various software components that generate, for example, the instructions used by the tactile feedback controller 161.

テキスト入力モジュール134は、任意選択的にグラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とするその他の任意のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 The text input module 134 is optionally a component of the graphic module 132 and is a variety of applications (eg contacts 137, email 140, IM141, browser 147, and any other application that requires text input). Provides a soft keyboard for entering text with.

GPSモジュール135は、デバイスの場所を決定し、この情報を、様々なアプリケーションで使用されるように提供する(例えば、電話138に提供して場所に基づくダイヤル発呼に使用する、写真/ビデオのメタデータとしてカメラ143に提供する、並びに天気ウィジェット、地域の電話帳ウィジェット、及び地図/ナビゲーションウィジェットなど場所に基づくサービスを提供するアプリケーションに提供するなど)。 The GPS module 135 locates the device and provides this information for use in various applications (eg, a photo / video that is provided to the telephone 138 for use in location-based dialing. Provided to camera 143 as metadata, as well as to applications that provide location-based services such as weather widgets, regional phonebook widgets, and map / navigation widgets).

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/若しくはビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザーが取得したその他のウィジェット、並びにユーザー作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザー作成ウィジェット149-6を作成するウィジェットクリエータモジュール150、
●検索モジュール151、
●任意選択的にビデオプレーヤーモジュール及び音楽プレーヤモジュールで構成される、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets) or subsets or supersets thereof.
● Contact Module 137 (sometimes called an address book or contact list),
Telephone module 138,
Video Conference Module 139,
Email client module 140,
● Instant messaging (IM) module 141,
Training support module 142,
Camera module 143 for still images and / or video images,
Image management module 144,
Browser module 147,
Calendar module 148,
● Of the weather widget 149-1, stock price widget 149-2, computer widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other user-acquired widgets, as well as user-created widgets 149-6. Widget module 149, which optionally contains one or more of
Widget Creator Module 150 to create user-created widget 149-6,
Search module 151,
● Video and music player module 152, which is optionally composed of a video player module and a music player module,
Memo module 153,
Map module 154 and / or ● Online video module 155.

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA® compatible applications, encryption, digital writing. Rights management, voice recognition, and voice duplication.

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、連絡先モジュール137は、アドレス帳に名前(単数又は複数)を追加する、アドレス帳から名前(単数又は複数)を削除する、電話番号(単数又は複数)、メールアドレス(単数又は複数)、物理アドレス(単数又は複数)又はその他の情報を名前と関連付ける、画像を名前と関連付ける、名前を分類して整理する、電話番号及び/又は電子メールアドレスを提供して、電話138、ビデオ会議139、電子メール140又はIM141によって通信を開始及び/又は円滑化するなど、(例えばメモリ102又はメモリ370の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するための実行可能命令を含む。 In connection with the touch-sensitive display system 112, display controller 156, contact module 130, graphic module 132, and text input module 134, the contact module 137 adds a name (s) to the address book from the address book. Delete name (s), associate phone number (s), email address (s), physical address (s) or other information with name, associate image with name, name Sorting and organizing, providing phone numbers and / or email addresses to initiate and / or facilitate communication by phone 138, video conferencing 139, email 140 or IM141, etc. (eg memory 102 or memory 370). Contains executable instructions for managing an address book or contact list (stored in the application internal state 192 of the contact module 137).

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を修正し、それぞれの電話番号をダイヤルし、会話を実行し、会話が完了したときに切断する、又は電話を切る実行可能命令を含む。上述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In connection with the RF circuit 108, the audio circuit 110, the speaker 111, the microphone 113, the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134, the telephone module 138 becomes a telephone number. Enter the corresponding series of characters to access one or more phone numbers in the address book 137, correct the phone numbers entered, dial each phone number, execute the conversation, and the conversation is complete. Includes actionable instructions to hang up or hang up when you do. As mentioned above, wireless communication optionally uses any of a plurality of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138に関連して、ビデオ会議モジュール139は、ユーザーの命令にしたがってユーザーと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了する実行可能命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch-sensitive display system 112, display controller 156, optical sensor (s) 164, optical sensor controller 158, contact module 130, graphic module 132, text input module 134. In connection with the contact list 137, and the telephone module 138, the video conference module 139 initiates, conducts, and terminates a video conference between the user and one or more other participants according to the user's instructions. Includes executable instructions.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、電子メールクライアントモジュール140は、ユーザーの命令に応答して電子メールを作成し、送信し、受信し、管理する実行可能命令を含む。画像管理モジュール144に関連して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを非常に容易にする。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134, the email client module 140 composes an email in response to a user command. Includes executable instructions to send, receive, and manage. In connection with the image management module 144, the email client module 140 makes it very easy to create and send an email with a still or video image taken by the camera module 143.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一連の文字を入力し、以前に入力された文字を修正し、(例えば電話によるインスタントメッセージ用のショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットによるインスタントメッセージ用のXMPP、SIMPLE、Apple Push Notification Service(APNs)若しくはIMPSを使用して)それぞれのインスタントメッセージを伝送し、インスタントメッセージを受信し、受信したインスタントメッセージを見る実行可能命令を含む。いくつかの実施形態では、伝送及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又はその他の添付物を含む。本明細書で使用する「インスタントメッセージ」は、電話によるメッセージ(例えばSMS又はMMSを使用して送信されるメッセージ)及びインターネットによるメッセージ(例えばXMPP、SIMPLE、APNs、又はIMPSを使用して送信されるメッセージ)の両方を指す。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134, the instant messaging module 141 inputs a series of characters corresponding to an instant message. Correct previously entered characters (eg, using the Short Message Service (SMS) or Multimedia Message Service (MMS) protocol for instant messaging by phone, or instant by the Internet. Includes executable instructions to transmit each instant message (using XMPP, SIMPLE, Apple Push Notification Services (APNs) or IMSS) for the message, receive the instant message and view the received instant message. In some embodiments, the transmitted and / or received instant message is optionally a graphic, photo, audio file, video file supported by MMS and / or Enhanced Messaging Service (EMS). , And / or other attachments. As used herein, "instant message" is transmitted using a telephone message (eg, a message sent using SMS or MMS) and an internet message (eg, using XMPP, SIMPLE, APNs, or IMPS). Message) both.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、並びにビデオ及び音楽プレーヤモジュール152に関連して、トレーニングサポートモジュール142は、(例えば時間、距離、及び/又はカロリー消費目標を有する)トレーニングを作成し、(スポーツデバイス及びスマートウォッチの)トレーニングセンサと通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択して再生し、トレーニングデータを表示、記憶、及び伝送する実行可能命令を含む。 Training support module in relation to RF circuit 108, touch sensitive display system 112, display controller 156, contact module 130, graphic module 132, text input module 134, GPS module 135, map module 154, and video and music player module 152. 142 to create training (eg with time, distance, and / or calorie consumption targets), communicate with training sensors (for sports devices and smartwatches), receive training sensor data, and monitor training. Includes actionable instructions to calibrate the sensors used, select and play music for training, and display, store, and transmit training data.

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144に関連して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)をキャプチャして、それらをメモリ102に記憶し、静止画像若しくはビデオの特性を修正し、かつ/又はメモリ102から静止画像若しくはビデオを削除する実行可能命令を含む。 In connection with the touch-sensitive display system 112, display controller 156, optical sensor (s) 164, optical sensor controller 158, contact module 130, graphic module 132, and image management module 144, the camera module 143 may be a still image or Includes executable instructions to capture videos (including video streams), store them in memory 102, modify the characteristics of still images or videos, and / or delete still images or videos from memory 102.

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143に関連して、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、修正(例えば編集)するなどして操作し、ラベル付けし、削除し、(例えばデジタルスライドショーで、又はアルバムとして)提示し、記憶する実行可能命令を含む。 In connection with the touch-sensitive display system 112, display controller 156, contact module 130, graphic module 132, text input module 134, and camera module 143, the image management module 144 arranges and modifies still and / or video images. Includes executable instructions that can be manipulated (eg, edited), labeled, deleted, presented (eg, in a digital slideshow, or as an album), and stored.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、ブラウザモジュール147は、ウェブページ又はその一部、並びにウェブページにリンクされた添付物及びその他のファイルを検索する、それらにリンクする、受信する、及び表示するなど、ユーザーの命令にしたがってインターネットを閲覧する実行可能命令を含む。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphic module 132, and the text input module 134, the browser module 147 links to a web page or part thereof, as well as a web page. Includes actionable instructions to browse the Internet according to your instructions, such as searching for, linking to, receiving, and displaying attached attachments and other files.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147に関連して、カレンダモジュール148は、ユーザーの命令にしたがって、カレンダ及びカレンダに関連するデータ(例えばカレンダ項目、ToDoリストなど)を作成し、表示し、修正し、記憶する実行可能命令を含む。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphic module 132, the text input module 134, the email client module 140, and the browser module 147, the calendar module 148 is a user's Includes executable instructions that create, display, modify, and store the module and data related to the module (eg, calendar items, ToDo list, etc.) according to the instructions.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147に関連して、ウィジェットモジュール149は、任意選択的にユーザーによってダウンロードされて使用されるミニアプリケーション(例えば気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、及び辞書ウィジェット149-5)であるか、又はユーザーによって作成されるミニアプリケーション(例えばユーザー作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル、及びJavaScriptファイル(例えばYahoo!ウィジェット)を含む。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphic module 132, the text input module 134, and the browser module 147, the widget module 149 is optionally downloaded by the user. Mini-applications used in (eg, Meteorological Widget 149-1, Stock Widget 149-2, Computer Widget 149-3, Alarm Clock Widget 149-4, and Dictionary Widget 149-5) or created by the user. It is a mini application (for example, user-created widget 149-6). In some embodiments, the widget includes an HTML (Hypertext Markup Language) file, a CSS (Cascading Style Sheets) file, and a Javascript® file. In some embodiments, the widget includes an XML (Extensible Markup Language) file and a Javascript file (eg, Yahoo! Widget).

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147に関連して、ウィジェットクリエータモジュール150は、ウィジェットを作成する(例えばウェブページのユーザー指定部分をウィジェットにする)実行可能命令を含む。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphic module 132, the text input module 134, and the browser module 147, the widget creator module 150 creates a widget (eg, the web). (Make the user-specified part of the page a widget) Includes executable instructions.

タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、検索モジュール151は、ユーザーの命令にしたがって、1つ以上の検索基準(例えば1つ以上のユーザー指定の検索語)と一致する、メモリ102内のテキスト、音楽、音声、画像、ビデオ、及び/又はその他のファイルを検索する実行可能命令を含む。 In connection with the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphic module 132, and the text input module 134, the search module 151 may follow one or more search criteria (eg, one) according to user instructions. Includes executable instructions to search for text, music, audio, images, videos, and / or other files in memory 102 that match the user-specified search term above).

タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147に関連して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された記録された音楽又はその他の音声ファイルをユーザーがダウンロードして再生することを可能にする実行可能命令、及び(例えばタッチ感知ディスプレイシステム112上で、又は無線で、若しくは外部ポート124を介して接続された外部のディスプレイ上で)ビデオを表示したり提示したりするなどして再生する実行可能命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。 In connection with the touch-sensitive display system 112, display system controller 156, contact module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108, and browser module 147, the video and music player module 152 may be MP3 or AAC. Executable instructions that allow the user to download and play recorded music or other audio files stored in one or more file formats, such as files, and (eg, on the touch-sensitive display system 112). Includes executable instructions to play, such as by displaying or presenting video (either wirelessly or on an external display connected via external port 124). In some embodiments, the device 100 optionally includes the functionality of an MP3 player such as an iPod (Apple trademark).

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、メモモジュール153は、ユーザーの命令にしたがって、メモ、ToDoリストなどを作成して管理する実行可能命令を含む。 In connection with the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphic module 132, and the text input module 134, the memo module 153 creates and manages memos, ToDo lists, etc. according to user instructions. Includes executable instructions.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147に関連して、地図モジュール154は、ユーザーの命令にしたがって、地図及び地図に関連するデータ(例えば、運転方向、特定の場所又はその付近の店舗及びその他の対象地点についてのデータ、並びにその他の場所に基づくデータ)を受信し、表示し、修正し、記憶する実行可能命令を含む。 In connection with the RF circuit 108, the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphic module 132, the text input module 134, the GPS module 135, and the browser module 147, the map module 154 is at the user's command. Therefore, receive, display, modify, and receive, display, and modify maps and map-related data (eg, data about driving directions, stores and other target points in or near a particular location, and data based on other locations). Contains executable instructions to remember.

タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147に関連して、オンラインビデオモジュール155は、ユーザーがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、(例えばストリーミング及び/又はダウンロードによって)受信し、(例えばタッチスクリーン112上で、又は無線で、若しくは外部ポート124を介して接続された外部のディスプレイ上で)再生し、特定のオンラインビデオへのリンクを有する電子メールを送信し、またその他の方法で管理することを可能にする実行可能命令を含む。いくつかの実施形態では、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141を使用して、特定のオンラインビデオへのリンクを送信する。 In connection with the touch-sensitive display system 112, display system controller 156, contact module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108, text input module 134, email client module 140, and browser module 147. The online video module 155 is provided by the user H. Access, view, receive (eg, by streaming and / or download) online video in one or more file formats, such as 264, and (eg, on the touch screen 112, or wirelessly, or via an external port 124). Includes executable instructions that allow you to play (on a connected external display), send an email with a link to a particular online video, and otherwise manage it. In some embodiments, the instant messaging module 141, rather than the email client module 140, is used to send a link to a particular online video.

上記で特定したモジュール及びアプリケーションの各々は、上述した1つ以上の機能を実行する実行可能命令のセット、及び本願で説明する方法(例えば本明細書で説明するコンピュータ実施方法及びその他の情報処理方法)に対応する。これらのモジュール(すなわち命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、様々な実施形態では、これらのモジュールの様々なサブセットを、任意選択的に、組み合わせるなどして再構成する。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、任意選択的に、上記で説明していない追加のモジュール及びデータ構造を記憶する。 Each of the modules and applications identified above is a set of executable instructions that perform one or more of the functions described above, as well as the methods described herein (eg, computer implementation methods and other information processing methods described herein). ) Corresponds. These modules (ie, instruction sets) do not need to be implemented as separate software programs, procedures, or modules, and therefore, in various embodiments, various subsets of these modules are optionally combined. And so on. In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. Further, the memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, the device 100 is a device in which the operation of a set of predetermined functions on the device is performed only through the touch screen and / or the touch pad. Optional number of physical input control devices (push buttons, dials, etc.) on the device 100 by using the touch screen and / or touchpad as the primary input control device for the device 100 to operate. Is reduced.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザーインターフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザーによってタッチされたときに、デバイス100上に表示される任意のユーザーインターフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力制御デバイスである。 A set of predetermined functions performed only through the touch screen and / or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates the device 100 from any user interface displayed on the device 100 to the main menu, home menu, or root menu when touched by the user. In such an embodiment, the "menu button" is implemented using a touchpad. In some other embodiments, the menu button is not a touchpad, but a physical push button or other physical input control device.

図1Bは、いくつかの実施形態によるイベントハンドリングのための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、(例えばオペレーティングシステム126の)イベントソータ170及びそれぞれのアプリケーション136-1(例えば上述したアプリケーション136、137~155、380~390のうちのいずれか)を含む。 FIG. 1B is a block diagram showing exemplary components for event handling according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) is the event sorter 170 (eg, operating system 126) and the respective application 136-1 (eg, applications 136-137-155, 380 described above). (Any of 390) is included.

イベントソータ170は、イベント情報を受信し、イベント情報の送達先となるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブである、又は実行中であるときにタッチ感知ディスプレイシステム112に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157をイベントソータ170が使用して、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定し、アプリケーション内部状態192をイベントソータ170が使用して、イベント情報の送達先となるアプリケーションビュー191を決定する。 The event sorter 170 receives the event information and determines the application view 191 of the application 136-1 and the application 136-1 to which the event information is delivered. The event sorter 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 indicates an application internal state (s) that are displayed on the touch-sensitive display system 112 when the application is active or running. 192 is included. In some embodiments, the device / global internal state 157 is used by the event sorter 170 to determine which application (s) are currently active, and the application internal state 192 is used by the event sorter 170. The application view 191 to which the event information is delivered is determined.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されている、又は表示される準備ができている情報を示すユーザーインターフェース状態情報、ユーザーがアプリケーション136-1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザーが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。 In some embodiments, the application internal state 192 is the resume information used when application 136-1 resumes execution, the information displayed or ready to be displayed by application 136-1. User interface state information that indicates, a state queue that allows the user to return to the previous state or view of application 136-1, and one or more of the redo / undo queues for previous actions taken by the user. Contains additional information such as.

イベントモニタ171は、周辺機器インターフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えばマルチタッチジェスチャの一部としてのタッチ感知ディスプレイシステム112上のユーザーのタッチ)についての情報を含む。周辺機器インターフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を伝送する。周辺機器インターフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイシステム112又はタッチ感知面からの情報を含む。 The event monitor 171 receives event information from the peripheral device interface 118. Event information includes information about sub-events (eg, user touches on the touch-sensitive display system 112 as part of a multi-touch gesture). Peripheral device interface 118 transmits information received from sensors such as the I / O subsystem 106, or proximity sensor 166, accelerometer (s) 168, and / or microphone 113 (via audio circuit 110). .. The information received by the peripheral interface 118 from the I / O subsystem 106 includes information from the touch-sensitive display system 112 or the touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インターフェース118に要求を送信する。それに応答して、周辺機器インターフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インターフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回り、及び/又は所定の持続時間よりも長い入力を受信すること)があったときのみ、イベント情報を伝送する。 In some embodiments, the event monitor 171 sends a request to the peripheral interface 118 at predetermined intervals. In response, the peripheral interface 118 transmits event information. In another embodiment, the peripheral interface 118 only receives event information when there is a significant event (eg, receiving an input that exceeds a predetermined noise threshold and / or exceeds a predetermined duration). To transmit.

いくつかの実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, the event sorter 170 includes a hit view determination module 172 and / or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイシステム112が2つ以上のビューを表示するときに、1つ以上のビュー内のどこでサブイベントが発生したかを決定するソフトウェア手順を提供する。ビューは、ユーザーがディスプレイ上で見ることができる制御要素およびその他の要素で構成される。 The hit view determination module 172 provides a software procedure for determining where in one or more views the subevent occurred when the touch-sensitive display system 112 displays the two or more views. A view consists of control elements and other elements that the user can see on the display.

アプリケーションに関連するユーザーインターフェースの別の態様は、その中に情報が表示され、タッチによるジェスチャが行われる、本明細書でアプリケーションビュー又はユーザーインターフェースィンドウと呼ぶこともあるビューのセットである。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of an application-related user interface is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and gestures are made by touch. The application view (for each application) for which touch is detected optionally corresponds to the program level within the application's program hierarchy or view hierarchy. For example, the lowest level view where a touch is detected is optionally called a hit view, and a set of events that are recognized as appropriate input is optionally an initial start of a touch gesture. Determined at least in part based on the hit view of the touch.

ヒットビュー判定モジュール172は、タッチによるジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(すなわちイベント又は潜在的なイベントを形成するサブイベントのシーケンスのうちの最初のサブイベント)が発生する最下位レベルビューである。ヒットビューがヒットビュー判定モジュールによって特定されると、そのヒットビューは、通常は、それがヒットビューとして特定されたのと同じタッチ又は入力源に関連する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to the touch gesture sub-event. When the application has a plurality of views configured in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy in which the subevent should be processed. In most situations, the hit view is the lowest level view where the starting subevent (ie, the first subevent in the sequence of events or subevents that form the potential event) occurs. When a hit view is identified by the hit view determination module, the hit view usually receives all subevents associated with the same touch or input source as it was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連する領域に完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 The active event recognition unit determination module 173 determines which view (s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, the active event recognizer determination module 173 determines that only the hit view should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views, including the physical position of the sub-event, are active-related views, and thus all active-related views. Determines that a particular sequence of subevents should be received. In other embodiments, the higher-level views in the hierarchy remain active-related views, even if the touch subevents are completely confined to the area associated with one particular view.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173によって判定されたイベント認識部にイベント情報を送達する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部モジュール182によって取得されるイベント情報を、イベント待ち行列に記憶する。 The event dispatcher module 174 dispatches event information to an event recognition unit (for example, event recognition unit 180). In the embodiment including the active event recognition unit determination module 173, the event dispatcher module 174 delivers event information to the event recognition unit determined by the active event recognition unit determination module 173. In some embodiments, the event dispatcher module 174 stores the event information acquired by each event receiver module 182 in the event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136-1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型モジュール、又は接触/動きモジュール130などのメモリ102に記憶された別のモジュールの一部である。 In some embodiments, the operating system 126 comprises an event sorter 170. Alternatively, application 136-1 includes an event sorter 170. In yet another embodiment, the event sorter 170 is part of a stand-alone module or another module stored in memory 102, such as the contact / motion module 130.

いくつかの実施形態では、アプリケーション136-1は、アプリケーションのユーザーインターフェースのそれぞれのビュー内で発生するタッチイベントを処理する命令をそれぞれ含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。通常は、それぞれのアプリケーションビュー191が、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上が、ユーザーインターフェースキット(図示せず)、又はアプリケーション136-1がメソッド及びその他の性質をそこから継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178、及び/又はイベントソータ170から受信するイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を利用して、又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上は、それぞれ1つ以上のイベントハンドラ190を含む。また、いくつかの実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes a plurality of event handlers 190 and one or more application views 191 each including instructions for handling touch events that occur within each view of the application's user interface. .. Each application view 191 of application 136-1 includes one or more event recognizers 180. Normally, each application view 191 includes a plurality of event recognition units 180. In other embodiments, one or more of the event recognizers 180 are user interface kits (not shown), or higher level objects from which application 136-1 inherits methods and other properties. It is part of a separate module. In some embodiments, each event handler 190 comprises one or more of event data 179 received from a data updater 176, an object updater 177, a GUI updater 178, and / or an event sorter 170. The event handler 190 optionally uses or calls the data updater 176, object updater 177, or GUI updater 178 to update the application internal state 192. Alternatively, one or more of the application views 191 each includes one or more event handlers 190. Also, in some embodiments, one or more of the data updater 176, the object updater 177, and the GUI updater 178 is included in each application view 191.

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えばイベントデータ179)を受信し、そのイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180は、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognition unit 180 receives event information (for example, event data 179) from the event sorter 170, and identifies an event from the event information. The event recognition unit 180 includes an event reception unit 182 and an event comparison unit 184. In some embodiments, the event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、例えばタッチ又はタッチの移動などのサブイベントに関する情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加の情報も含む。サブイベントがタッチの動きに関するものであるときには、イベント情報は、任意選択的に、サブイベントの速さ及び方向も含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 The event receiving unit 182 receives event information from the event sorter 170. Event information includes information about sub-events such as touch or touch movement. For some sub-events, the event information also includes additional information such as the location of the sub-event. When the sub-event is about touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event comprises rotating the device from one orientation to another (eg, from portrait to landscape or vice versa), and the event information is the current orientation of the device (device). Includes corresponding information about (also called posture).

イベント比較部184は、イベント情報を所定のイベント又はサブイベントの定義と比較し、この比較に基づいて、イベント又はサブイベントを決定する、又はイベント若しくはサブイベントの状態を決定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント187のサブイベントは、例えば、タッチ開始、タッチ終了、タッチ移動、タッチ取消し、及び複数タッチを含む。1実施例では、イベント1(187-1)の定義は、表示されたオブジェクト上でのダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上での所定の期間にわたる第1のタッチ(タッチ開始)と、所定の期間にわたる第1のリフトオフ(タッチ終了)と、表示されたオブジェクト上での所定の期間にわたる第2のタッチ(タッチ開始)と、所定の期間にわたる第2のリフトオフ(タッチ終了)とを含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、表示されたオブジェクト上での所定の期間にわたるタッチ(又は接触)と、タッチ感知ディスプレイシステム112にわたるタッチの移動と、タッチのリフトオフ(タッチ終了)とを含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。 The event comparison unit 184 compares the event information with the definition of a predetermined event or sub-event, and based on this comparison, determines the event or sub-event, or determines or updates the state of the event or sub-event. In some embodiments, the event comparison unit 184 includes an event definition 186. Event definition 186 includes definitions of events (eg, sequences of predetermined sub-events) such as event 1 (187-1) and event 2 (187-2). In some embodiments, the sub-event of event 187 includes, for example, touch start, touch end, touch move, touch cancel, and multiple touches. In one embodiment, the definition of event 1 (187-1) is a double tap on the displayed object. Double tapping is, for example, a first touch (touch start) over a predetermined period of time on the displayed object, a first lift-off (touch end) over a predetermined period of time, and a predetermined time on the displayed object. It includes a second touch over a period of time (start of touch) and a second lift off over a predetermined period of time (end of touch). In another embodiment, the definition of event 2 (187-2) is a drag on the displayed object. Dragging includes, for example, touching (or touching) over a predetermined period of time on the displayed object, moving the touch across the touch-sensitive display system 112, and lifting off the touch (end of touch). In some embodiments, the event also includes information about one or more associated event handlers 190.

いくつかの実施形態では、イベント定義187は、それぞれのユーザーインターフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザーインターフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、3つのユーザーインターフェースオブジェクトがタッチ感知ディスプレイシステム112に表示されるアプリケーションビューでは、タッチ感知ディスプレイシステム112上でタッチが検出されると、イベント比較部184は、ヒットテストを実行して、3つのユーザーインターフェースオブジェクトのうちのどれがタッチ(サブイベント)と関連付けられているかを判定する。表示された各オブジェクトが、それぞれイベントハンドラ190と関連付けられている場合には、イベント比較部は、ヒットテストの結果を使用して、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, the event definition 187 includes an event definition for each user interface object. In some embodiments, the event comparison unit 184 performs a hit test to determine which user interface object is associated with the subevent. For example, in an application view where three user interface objects are displayed on the touch-sensitive display system 112, when a touch is detected on the touch-sensitive display system 112, the event comparison unit 184 performs a hit test to perform the three user interface objects. Determine which of the user interface objects is associated with a touch (sub-event). If each displayed object is associated with an event handler 190, the event comparison unit uses the result of the hit test to determine which event handler 190 should be activated. For example, the event comparison unit 184 selects an event handler associated with a subevent and an object that triggers a hit test.

いくつかの実施形態では、それぞれのイベント187の定義は、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の送達を遅延させる遅延アクションも含む。 In some embodiments, the definition of each event 187 also includes a delayed action that delays the delivery of event information until it is determined whether the sequence of sub-events corresponds to the event type of the event recognizer.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないと判断した場合には、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。 When each event recognition unit 180 determines that the series of sub-events does not match any of the events in the event definition 186, each event recognition unit 180 is in the state of event impossible, event failure, or event termination. And then ignores subsequent subevents of the touch gesture. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process sub-events of the gesture with the touch in progress.

いくつかの実施形態では、それぞれのイベント認識部180は、イベント送達システムがどのようにしてサブイベント送達を実行すべきかをアクティブに関わりがあるイベント認識部に対して示す構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における様々なレベルに送達されるかどうかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, each event recognizer 180 presents configurable properties, flags, and configurable properties to indicate to the event recognizer actively involved how the event delivery system should perform subevent delivery. / Or contains metadata 183 with a list. In some embodiments, the metadata 183 is a configurable property that indicates how event recognizers interact with each other, or how event recognizers are allowed to interact with each other. Includes flags and / or lists. In some embodiments, the metadata 183 includes configurable properties, flags, and / or lists indicating whether subevents are delivered to different levels in the view hierarchy or program hierarchy.

いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されたときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報を、イベントハンドラ190に送達する。イベントハンドラ190をアクティブ化することは、サブイベントをそれぞれのヒットビューに送信すること(及び遅らせて送信すること)とは異なる。いくつかの実施形態では、イベント認識部180は、認識したイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベントハンドラ190は、そのフラグを捕らえ、所定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates an event handler 190 associated with an event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to the event handler 190. Activating the event handler 190 is different from sending (and delaying) subevents to their respective hit views. In some embodiments, the event recognition unit 180 inputs a flag associated with the recognized event, and the event handler 190 associated with the flag catches the flag and executes a predetermined process.

いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化せずにサブイベントについてのイベント情報を送達するサブイベント配信命令を含む。このサブイベント配信命令は、その代わりに、一連のサブイベントと関連付けられたイベントハンドラ、又はアクティブに関わりがあるビューに、イベント情報を送達する。一連のサブイベント又はアクティブに関わりがあるビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定のプロセスを実行する。 In some embodiments, the event delivery instruction 188 includes a sub-event delivery instruction that delivers event information about the sub-event without activating the event handler. This sub-event delivery instruction instead delivers event information to the event handler associated with the set of sub-events, or to the view involved in the activity. The event handler associated with the set of sub-events or views involved in the activity receives the event information and executes a predetermined process.

いくつかの実施形態では、データアップデーター176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新する、又はビデオ及び音楽プレーヤモジュール152で使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクトアップデーター177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター177は、新たなユーザーインターフェースオブジェクトを作成する、又はユーザーインターフェースオブジェクトの位置を更新する。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、この表示情報をタッチ感知ディスプレイ上に表示するためにグラフィックモジュール132に送信する。 In some embodiments, the data updater 176 creates and updates the data used in application 136-1. For example, the data updater 176 updates the phone number used by the contact module 137 or stores the video file used by the video and music player module 152. In some embodiments, the object updater 177 creates and updates the objects used in application 136-1. For example, the object updater 177 creates a new user interface object or updates the position of the user interface object. The GUI updater 178 updates the GUI. For example, the GUI updater 178 prepares display information and transmits this display information to the graphic module 132 for display on the touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データアップデーター176、オブジェクトアップデーター177及びGUIアップデーター178を含む、又はそれらへのアクセスを有する。いくつかの実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, the event handler (s) 190 comprises, or has access to, a data updater 176, an object updater 177 and a GUI updater 178. In some embodiments, the data updater 176, the object updater 177, and the GUI updater 178 are contained in a single module of application 136-1 or application view 191 respectively. In other embodiments, they are included in two or more software modules.

タッチ感知ディスプレイ上のユーザーのタッチのイベント処理に関する以上の説明は、その全てがタッチスクリーン上で開始されるとは限らない、入力デバイスを備える多機能デバイス100を動作させるためのその他の形態のユーザー入力にも当てはまることを理解されたい。例えば、任意選択的に1回又は複数回のキーボードの押圧又は保持と連携したマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組合せを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 The above description of user touch event handling on a touch-sensitive display is not entirely initiated on the touch screen, but is another form of user for operating a multifunction device 100 with an input device. Please understand that it also applies to input. For example, mouse movement and mouse button pressing in conjunction with one or more keyboard presses or holds optionally, touch movements such as tapping, dragging, scrolling on the touchpad, pen stylus input, devices. Movement, verbal commands, detected eye movements, biometric inputs, and / or any combination thereof are optionally used as inputs corresponding to subevents that define the event to be recognized.

図1Cは、いくつかの実施形態による触知出力モジュールを示すブロック図である。いくつかの実施形態では、I/Oサブシステム106(例えば触覚フィードバックコントローラ161(図1A)及び/又はその他の入力コントローラ(単数又は複数)160(図1A)は、図1Cに示す例示的な構成要素のうちの少なくともいくつかを含む。いくつかの実施形態では、周辺機器インターフェース118は、図1Cに示す例示的な構成要素のうちの少なくともいくつかを含む。 FIG. 1C is a block diagram showing tactile output modules according to some embodiments. In some embodiments, the I / O subsystem 106 (eg, tactile feedback controller 161 (FIG. 1A) and / or other input controller (s) 160 (FIG. 1A) is an exemplary configuration shown in FIG. 1C. Includes at least some of the elements. In some embodiments, the peripheral device interface 118 comprises at least some of the exemplary components shown in FIG. 1C.

いくつかの実施形態では、触知出力モジュールは、触覚フィードバックモジュール133を含む。いくつかの実施形態では、触覚フィードバックモジュール133は、電子デバイス上のソフトウェアアプリケーションからのユーザーインターフェースフィードバックのために触覚出力(例えば、表示されたユーザーインターフェースに対応するユーザー入力に応答するフィードバック、並びに電子デバイスのユーザーインターフェースの動作の性能又はイベントの発生を示す警告及びその他の通知)を集成し、結合する。触覚フィードバックモジュール133は、波形モジュール123(触知出力を生成するために使用される波形を提供する)、ミキサ125(異なるチャネルの波形など複数の波形を混合する)、圧縮機127(波形のダイナミックレンジを縮小又は圧縮する)、低域通過フィルタ129(波形の高周波信号成分をフィルタリングによって除去する)、及び熱コントローラ131(熱的条件にしたがって波形を調整する)のうちの1つ以上を含む。いくつかの実施形態では、触覚フィードバックモジュール133は、触覚フィードバックコントローラ161(図1A)に含まれる。いくつかの実施形態では、触覚フィードバックモジュール133の別のユニット(又は触覚フィードバックモジュール133の別の実施態様)が、オーディオコントローラ(例えば図1Aのオーディオ回路110)にも含まれ、オーディオ信号を生成するために使用される。いくつかの実施形態では、単一の触覚フィードバックモジュール133を使用して、オーディオ信号を生成し、触知出力の波形を生成する。 In some embodiments, the tactile output module includes a tactile feedback module 133. In some embodiments, the tactile feedback module 133 provides tactile output (eg, feedback in response to user input corresponding to the displayed user interface, as well as electronic device) for user interface feedback from a software application on the electronic device. Aggregate and combine warnings and other notifications that indicate the performance of the user interface's behavior or the occurrence of an event. The tactile feedback module 133 includes a waveform module 123 (providing the waveform used to generate the tactile output), a mixer 125 (mixing multiple waveforms such as waveforms of different channels), and a compressor 127 (waveform dynamic). Includes one or more of (reducing or compressing the range), low pass filter 129 (filtering out high frequency signal components of the waveform), and thermal controller 131 (adjusting the waveform according to thermal conditions). In some embodiments, the tactile feedback module 133 is included in the tactile feedback controller 161 (FIG. 1A). In some embodiments, another unit of the haptic feedback module 133 (or another embodiment of the haptic feedback module 133) is also included in an audio controller (eg, audio circuit 110 of FIG. 1A) to generate an audio signal. Used for. In some embodiments, a single tactile feedback module 133 is used to generate an audio signal and generate a tactile output waveform.

いくつかの実施形態では、触覚フィードバックモジュール133は、トリガモジュール121(例えば、生成する触知出力を決定し、対応する触知出力を生成するプロセスを開始するソフトウェアアプリケーション、オペレーティングシステム、又はその他のソフトウェアモジュール)も含む。いくつかの実施形態では、トリガモジュール121は、(例えば波形モジュール123による)波形の生成を開始するトリガ信号を生成する。例えば、トリガモジュール121は、予め設定されたタイミング基準に基づいてトリガ信号を生成する。いくつかの実施形態では、トリガモジュール121は、触覚フィードバックモジュール133の外部からトリガ信号を受信し(例えば、いくつかの実施形態では、触覚フィードバックモジュール133は、触覚フィードバックモジュール133の外部に位置するハードウェア入力処理モジュール146からトリガ信号を受信する)、このトリガ信号を、触覚フィードバックモジュール133内の他の構成要素(例えば波形モジュール123)、又はユーザーインターフェース要素(例えばアプリケーション内のアプリケーションアイコン又はアフォーダンス)のアクティブ化に基づいて(例えばトリガモジュール121によって)動作をトリガするソフトウェアアプリケーション、又はハードウェア入力デバイス(例えばホームボタン又は強度感知タッチスクリーンなどの強度感知入力面)に中継する。いくつかの実施形態では、トリガモジュール121は、(例えば、図1A及び図3の触覚フィードバックモジュール133から)触知フィードバック生成命令も受信する。いくつかの実施形態では、トリガモジュール121は、触覚フィードバックモジュール133(又は触覚フィードバックモジュール133内のトリガモジュール121)が(例えば図1A及び図3の触覚フィードバックモジュール133から)触知フィードバック命令を受信したのに応答して、トリガ信号を生成する。 In some embodiments, the tactile feedback module 133 determines the trigger module 121 (eg, a software application, operating system, or other software that initiates the process of determining the tactile output to generate and generating the corresponding tactile output. Module) is also included. In some embodiments, the trigger module 121 generates a trigger signal that initiates the generation of the waveform (eg, by the waveform module 123). For example, the trigger module 121 generates a trigger signal based on a preset timing reference. In some embodiments, the trigger module 121 receives a trigger signal from outside the haptic feedback module 133 (eg, in some embodiments, the haptic feedback module 133 is a hardware located outside the haptic feedback module 133. (Receives a trigger signal from the wear input processing module 146), this trigger signal can be used by other components within the tactile feedback module 133 (eg, waveform module 123), or by user interface elements (eg, application icons or affordances within the application). It relays to a software application that triggers an action based on activation (eg, by trigger module 121), or to a hardware input device (eg, an intensity-sensitive input surface such as a home button or an intensity-sensitive touch screen). In some embodiments, the trigger module 121 also receives a tactile feedback generation command (eg, from the tactile feedback modules 133 of FIGS. 1A and 3). In some embodiments, the trigger module 121 receives a tactile feedback command from the tactile feedback module 133 (or the trigger module 121 within the tactile feedback module 133) (eg, from the tactile feedback modules 133 of FIGS. 1A and 3). Generates a trigger signal in response to.

波形モジュール123は、(例えばトリガモジュール121から)トリガ信号を入力として受信し、トリガ信号を受信したのに応答して、1つ以上の触知出力を生成するための波形(例えば、図4F~図4Gを参照して以下で更に詳細に述べる波形など、波形モジュール123によって使用されるように指定された波形の所定のセットから選択された波形)を提供する。 The waveform module 123 receives a trigger signal (for example, from the trigger module 121) as an input, and in response to receiving the trigger signal, the waveform module 123 generates a waveform for generating one or more tactile outputs (for example, FIGS. 4F to 4F). Provided are waveforms selected from a predetermined set of waveforms designated for use by the waveform module 123, such as waveforms described in more detail below with reference to FIG. 4G.

ミキサ125は、(例えば波形モジュール123から)入力として波形を受信し、これらの波形を混合する。例えば、ミキサ125が2つ以上の波形(例えば第1のチャネルの第1の波形及び第1の波形と少なくとも部分的に重なる第2のチャネルの第2の波形)を受信したときには、ミキサ125は、この2つ以上の波形の和に対応する合成波形を出力する。また、いくつかの実施形態では、ミキサ125は、(例えば、特定の波形(単数又は複数)のスケールを増大させ、かつ/又は残りの波形のスケールを低減させることによって)この2つ以上の波形のうちの1つ以上の波形を修正して、特定の波形(単数又は複数)を2つ以上の波形のうちの残りの波形より強調する。いくつかの状況では、ミキサ125は、合成波形から除去する1つ以上の波形を選択する(例えば、触知出力生成器167によって同時に出力されることが要求されている4つ以上のソースからの波形があるときには、最も古いソースの波形を除去する)。 The mixer 125 receives the waveform as an input (eg, from the waveform module 123) and mixes these waveforms. For example, when the mixer 125 receives two or more waveforms (eg, the first waveform of the first channel and the second waveform of the second channel that at least partially overlaps the first waveform), the mixer 125 , Outputs a composite waveform corresponding to the sum of these two or more waveforms. Also, in some embodiments, the mixer 125 is responsible for the two or more waveforms (eg, by increasing the scale of a particular waveform (s) and / or reducing the scale of the remaining waveforms). One or more of the waveforms are modified to emphasize a particular waveform (s) over the rest of the two or more waveforms. In some situations, the mixer 125 selects one or more waveforms to remove from the composite waveform (eg, from four or more sources that are required to be output simultaneously by the tactile output generator 167. If there is a waveform, remove the waveform from the oldest source).

圧縮機127は、波形(例えばミキサ125からの合成波形)を入力として受信し、これらの波形を修正する。いくつかの実施形態では、圧縮機127は、波形に対応する触知出力が減少するように、(例えば触知出力生成器167(図1A)又は357(図3)の物理的仕様にしたがって)波形を減少させる。いくつかの実施形態では、圧縮機127は、波形に対して所定の最大振幅を課すことなどによって、波形を制限する。例えば、圧縮機127は、所定の振幅閾値を超えない波形部分の振幅を維持する一方で、所定の振幅閾値を超える波形部分の振幅を減少させる。いくつかの実施形態では、圧縮機127は、波形のダイナミックレンジを減少させる。いくつかの実施形態では、圧縮機127は、合成波形が触知出力生成器167の性能仕様(例えば、力及び/又は可動質量変位の限界)内に留まるように、波形のダイナミックレンジを動的に減少させる。 The compressor 127 receives a waveform (eg, a composite waveform from the mixer 125) as an input and corrects these waveforms. In some embodiments, the compressor 127 is such that the tactile output corresponding to the waveform is reduced (eg, according to the physical specifications of the tactile output generator 167 (FIG. 1A) or 357 (FIG. 3)). Decrease the waveform. In some embodiments, the compressor 127 limits the waveform, such as by imposing a predetermined maximum amplitude on the waveform. For example, the compressor 127 maintains the amplitude of the waveform portion that does not exceed the predetermined amplitude threshold value, while reducing the amplitude of the waveform portion that exceeds the predetermined amplitude threshold value. In some embodiments, the compressor 127 reduces the dynamic range of the waveform. In some embodiments, the compressor 127 dynamically adjusts the dynamic range of the waveform so that the composite waveform remains within the performance specifications of the tactile output generator 167 (eg, the limits of force and / or movable mass displacement). To reduce.

低域通過フィルタ129は、波形(例えば圧縮機127からの圧縮波形)を入力として受信し、これらの波形をフィルタリング(例えば平滑化)する(例えば、波形の高周波信号成分を除去又は低減する)。例えば、いくつかの場合には、圧縮機127は、圧縮波形中に、触知出力の生成を妨害し、かつ/又は圧縮波形にしたがって触知出力を生成したときに触知出力生成器167の性能仕様を超える外来信号(例えば高周波信号成分)を含む。低域通過フィルタ129は、波形中のこのような外来信号を低減又は除去する。 The low frequency pass filter 129 receives waveforms (eg, compressed waveforms from the compressor 127) as inputs and filters (eg, smoothes) these waveforms (eg, removes or reduces high frequency signal components of the waveform). For example, in some cases, the compressor 127 interferes with the generation of the tactile output during the compressed waveform and / or produces the tactile output according to the compressed waveform of the tactile output generator 167. Includes external signals (eg, high frequency signal components) that exceed performance specifications. The low pass filter 129 reduces or eliminates such extraneous signals in the waveform.

熱コントローラ131は、波形(例えば、低域通過フィルタ129からのフィルタリングされた波形)を入力として受信し、これらの波形を、デバイス100の熱的条件にしたがって(例えば、触覚フィードバックコントローラ161の温度などデバイス100内で検出される内部温度、及び/又はデバイス100によって検出される外部温度に基づいて)調整する。例えば、いくつかの場合には、触覚フィードバックコントローラ161の出力は、温度に応じて変化する(例えば、触覚フィードバックコントローラ161は、同じ波形を受信したのに応答して、触覚フィードバックコントローラ161が第1の温度であるときには第1の触知出力を生成し、触覚フィードバックコントローラ161が第1の温度とは別個の第2の温度であるときには第2の触知出力を生成する)。例えば、触知出力の大きさ(又は振幅)は、温度に応じて変化することもある。温度変化の影響を低下させるために、波形を修正する(例えば、波形の振幅を、温度に基づいて増大又は減少させる)。 The thermal controller 131 receives waveforms (eg, filtered waveforms from the low pass filter 129) as inputs and receives these waveforms according to the thermal conditions of the device 100 (eg, the temperature of the tactile feedback controller 161). Adjust (based on the internal temperature detected within the device 100 and / or the external temperature detected by the device 100). For example, in some cases, the output of the tactile feedback controller 161 varies with temperature (eg, the tactile feedback controller 161 receives the same waveform, but the tactile feedback controller 161 is the first. A first tactile output is generated when the temperature is, and a second tactile output is generated when the tactile feedback controller 161 has a second temperature separate from the first temperature). For example, the magnitude (or amplitude) of the tactile output may change with temperature. Modify the waveform to reduce the effects of temperature changes (eg, increase or decrease the amplitude of the waveform based on temperature).

いくつかの実施形態では、触覚フィードバックモジュール133(例えばトリガモジュール121)は、ハードウェア入力処理モジュール146に結合される。いくつかの実施形態では、図1Aの他の入力コントローラ(単数又は複数)160が、ハードウェア入力処理モジュール146を含む。いくつかの実施形態では、ハードウェア入力処理モジュール146は、ハードウェア入力デバイス145(例えば、ホームボタン、又は強度感知タッチスクリーンなどの強度感知入力面など、図1Aの他の入力又は制御デバイス116)から入力を受信する。いくつかの実施形態では、ハードウェア入力デバイス145は、タッチ感知ディスプレイシステム112(図1A)、キーボード/マウス350(図3)、タッチパッド355(図3)、他の入力若しくは制御デバイス116(図1A)のうちの1つ、又は強度感知ホームボタンなど、本明細書に記載する任意の入力デバイスである。いくつかの実施形態では、ハードウェア入力デバイス145は、タッチ感知ディスプレイシステム112(図1A)、キーボード/マウス350(図3)、又はタッチパッド355(図3)ではなく、強度感知ホームボタンからなる。いくつかの実施形態では、ハードウェア入力デバイス145(例えば強度感知ホームボタン又はタッチスクリーン)からの入力に応答して、ハードウェア入力処理モジュール146は、ホームボタンの「クリック」(例えば「ダウンクリック」又は「アップクリック」)に対応する入力など、所定の入力基準を満たすユーザー入力が検出されたことを示す1つ以上のトリガ信号を、触覚フィードバックモジュール133に提供する。いくつかの実施形態では、触覚フィードバックモジュール133は、ホームボタンの「クリック」に対応する入力に応答して、ホームボタンの「クリック」に対応する波形を提供して、物理ホームボタンを押す触覚フィードバックをシミュレートする。 In some embodiments, the tactile feedback module 133 (eg, the trigger module 121) is coupled to the hardware input processing module 146. In some embodiments, the other input controller (s) 160 of FIG. 1A comprises a hardware input processing module 146. In some embodiments, the hardware input processing module 146 is a hardware input device 145 (eg, another input or control device 116 of FIG. 1A, such as a home button or an intensity sensitive input surface such as an intensity sensitive touch screen). Receive input from. In some embodiments, the hardware input device 145 includes a touch-sensitive display system 112 (FIG. 1A), a keyboard / mouse 350 (FIG. 3), a touchpad 355 (FIG. 3), and other input or control devices 116 (FIG. 1A). Any input device described herein, such as one of 1A), or an intensity-sensitive home button. In some embodiments, the hardware input device 145 comprises an intensity sensitive home button rather than a touch sensitive display system 112 (FIG. 1A), a keyboard / mouse 350 (FIG. 3), or a touchpad 355 (FIG. 3). .. In some embodiments, in response to input from a hardware input device 145 (eg, intensity-sensitive home button or touch screen), the hardware input processing module 146 "clicks" (eg, "downclicks") the home button. Alternatively, the tactile feedback module 133 is provided with one or more trigger signals indicating that a user input satisfying a predetermined input criterion, such as an input corresponding to "up-click"), has been detected. In some embodiments, the tactile feedback module 133 provides a waveform corresponding to the "click" of the home button in response to an input corresponding to the "click" of the home button to provide tactile feedback to press the physical home button. To simulate.

いくつかの実施形態では、触覚出力モジュールは、触知出力の生成を制御する触覚フィードバックコントローラ161(例えば図1Aの触覚フィードバックコントローラ161)を含む。いくつかの実施形態では、触覚フィードバックコントローラ161は、複数の触知出力生成器に結合され、この複数の触知出力生成器のうちの1つ以上の触知出力生成器を選択し、選択した1つ以上の触知出力生成器に波形を送信して、触知出力を生成する。いくつかの実施形態では、触覚フィードバックコントローラ161は、ハードウェア入力デバイス145のアクティブ化に対応する触知出力要求、及びソフトウェアイベントに対応する触知出力要求(例えば触覚フィードバックモジュール133からの触知出力要求)を調整し、(例えば、特定の波形(単数又は複数)のスケールを増大させ、かつ/又は残りの波形のスケールを低減させて、ハードウェア入力デバイス145のアクティブ化に対応する触知出力をソフトウェアイベントに対応する触知出力よりも優先することなどによって)2つ以上の波形のうちの1つ以上の波形を修正して、特定の波形(単数又は複数)を2つ以上の波形のうちの残りの波形より強調する。 In some embodiments, the tactile output module includes a tactile feedback controller 161 that controls the generation of tactile outputs (eg, the tactile feedback controller 161 of FIG. 1A). In some embodiments, the tactile feedback controller 161 is coupled to a plurality of tactile output generators and one or more of the plurality of tactile output generators is selected and selected. Waveforms are sent to one or more tactile output generators to generate tactile outputs. In some embodiments, the tactile feedback controller 161 has a tactile output request corresponding to activation of the hardware input device 145 and a tactile output request corresponding to a software event (eg, tactile output from the tactile feedback module 133). Tactile output corresponding to activation of hardware input device 145 by adjusting (requirements) and increasing the scale of a particular waveform (s) and / or reducing the scale of the remaining waveforms. Modify one or more of the two or more waveforms (by prioritizing the tactile output corresponding to the software event, etc.) to make a specific waveform (s) of the two or more waveforms. Emphasize from the rest of our waveforms.

いくつかの実施形態では、図1Cに示すように、触覚フィードバックコントローラ161の出力は、デバイス100のオーディオ回路(例えば図1Aのオーディオ回路110)に結合され、デバイス100のオーディオ回路にオーディオ信号を提供する。いくつかの実施形態では、触覚フィードバックコントローラ161は、触知出力を生成するために使用される波形と、触知出力の生成に関連して音声出力を提供するために使用されるオーディオ信号の両方を提供する。いくつかの実施形態では、触覚フィードバックコントローラ161は、オーディオ信号及び/又は(触知出力を生成するために使用される)波形を、(例えばオーディオ信号及び/又は波形を遅延させることによって)音声出力及び触知出力が同期するように修正する。いくつかの実施形態では、触覚フィードバックコントローラ161は、デジタル波形を、増幅器163及び/又は触知出力生成器167によって受信されるアナログ信号に変換するために使用される、デジタルアナログ変換器を含む。 In some embodiments, as shown in FIG. 1C, the output of the haptic feedback controller 161 is coupled to an audio circuit of device 100 (eg, audio circuit 110 of FIG. 1A) to provide an audio signal to the audio circuit of device 100. do. In some embodiments, the tactile feedback controller 161 is both a waveform used to generate a tactile output and an audio signal used to provide an audio output in connection with the generation of the tactile output. I will provide a. In some embodiments, the tactile feedback controller 161 outputs an audio signal and / or a waveform (used to generate a tactile output) to an audio signal (eg, by delaying the audio signal and / or the waveform). And modify the tactile output to be synchronized. In some embodiments, the tactile feedback controller 161 includes a digital-to-analog converter used to convert a digital waveform into an analog signal received by the amplifier 163 and / or the tactile output generator 167.

いくつかの実施形態では、触知出力モジュールは、増幅器163を含む。いくつかの実施形態では、増幅器163は、(例えば触覚フィードバックコントローラ161から)波形を受信し、これらの波形を増幅した後で、これらの増幅した波形を触知出力生成器167(例えば触知出力生成器167(図1A)又は357(図3))に送信する。例えば、増幅器163は、受信した波形を、触知出力生成器167の物理的仕様に応じた信号レベルに増幅し(例えば、触知出力生成器167に送信される信号が触覚フィードバックコントローラ161から受信した波形に対応する触知出力を生成するように、触知出力を生成する触知出力生成器167が必要とする電圧及び/又は電流に増幅し)、この増幅した波形を触知出力生成器167に送信する。これに応答して、触知出力生成器167は、(例えば、可動質量をその可動質量の中立位置を基準として1つ以上の方向に往復させることによって)触覚出力を生成する。 In some embodiments, the tactile output module comprises an amplifier 163. In some embodiments, the amplifier 163 receives waveforms (eg, from the tactile feedback controller 161), amplifies these waveforms, and then outputs these amplified waveforms to the tactile output generator 167 (eg, tactile output). It is transmitted to the generator 167 (FIG. 1A) or 357 (FIG. 3). For example, the amplifier 163 amplifies the received waveform to a signal level according to the physical specifications of the tactile output generator 167 (for example, the signal transmitted to the tactile output generator 167 is received from the tactile feedback controller 161). Amplifies to the voltage and / or current required by the tactile output generator 167 to generate the tactile output so as to generate the tactile output corresponding to the waveform), and this amplified waveform is amplified to the tactile output generator. Send to 167. In response, the tactile output generator 167 generates a tactile output (eg, by reciprocating the movable mass in one or more directions relative to the neutral position of the movable mass).

いくつかの実施形態では、触知出力モジュールは、触知出力生成器167に結合されたセンサ169を含む。センサ169は、触知出力生成器167又は触知出力生成器167の1つ以上の構成要素(例えば、触覚出力を生成するために使用される膜などの1つ以上の可動部)の状態又は状態変化(例えば、機械的位置、物理的変位、及び/又は移動)を検出する。いくつかの実施形態では、センサ169は、磁場センサ(例えばホール効果センサ)、又はその他の変位及び/若しくは移動センサである。いくつかの実施形態では、センサ169は、触覚フィードバックコントローラ161に情報(例えば触知出力生成器167の1つ以上の部分の位置、変位、及び/又は移動)を提供し、触覚フィードバックコントローラ161は、センサ169から提供される触知出力生成器167の状態に関する情報にしたがって、触覚フィードバックコントローラ161から出力される波形(例えば、任意選択的に増幅器163を介して触知出力生成器167に送信される波形)を調整する。 In some embodiments, the tactile output module comprises a sensor 169 coupled to a tactile output generator 167. The sensor 169 is a state or state of one or more components of the tactile output generator 167 or the tactile output generator 167 (eg, one or more moving parts such as a membrane used to generate a tactile output). Detects state changes (eg, mechanical position, physical displacement, and / or movement). In some embodiments, the sensor 169 is a magnetic field sensor (eg, a Hall effect sensor), or other displacement and / or movement sensor. In some embodiments, the sensor 169 provides information to the tactile feedback controller 161 (eg, the position, displacement, and / or movement of one or more parts of the tactile output generator 167), wherein the tactile feedback controller 161. , A waveform output from the tactile feedback controller 161 (eg, optionally transmitted to the tactile output generator 167 via the amplifier 163, according to information about the state of the tactile output generator 167 provided by the sensor 169. Wave) is adjusted.

図2は、いくつかの実施形態による、タッチスクリーン(例えば図1Aのタッチ感知ディスプレイシステム112)を有するポータブル多機能デバイス100を示す図である。タッチスクリーンは、任意選択的に、ユーザーインターフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。これらの実施形態、並びに以下で述べるその他の実施形態では、ユーザーは、例えば、1本以上の指202(図では一定の縮尺では描かれていない)又は1つ以上のスタイラス203(図では一定の縮尺では描かれていない)によってグラフィック上でジェスチャを行うことによってグラフィックのうちの1つ以上を選択することができる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザーがその1つ以上のグラフィックとの接触を断ったときに行われる。いくつかの実施形態では、ジェスチャは、任意選択的に、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又はデバイス100と接触している指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を含む。いくつかの実装形態又は状況では、グラフィックとの不慮の接触では、グラフィックは選択されない。例えば、選択に対応するジェスチャがタップであるときには、アプリケーションアイコンの上をスイープするスワイプジェスチャでは、任意選択的に、対応するアプリケーションは選択されない。 FIG. 2 is a diagram showing a portable multifunction device 100 with a touch screen (eg, the touch-sensitive display system 112 of FIG. 1A), according to some embodiments. The touch screen optionally displays one or more graphics within the user interface (UI) 200. In these embodiments, as well as other embodiments described below, the user may see, for example, one or more fingers 202 (not drawn to a certain scale in the figure) or one or more stylus 203 (constant in the figure). You can select one or more of the graphics by making gestures on the graphic (not drawn at scale). In some embodiments, the selection of one or more graphics is made when the user breaks contact with the one or more graphics. In some embodiments, the gesture is optionally one or more taps, one or more swipes (left to right, right to left, up and / or down), and / Or includes rolling fingers (right-to-left, left-to-right, upward, and / or downward) in contact with the device 100. In some implementations or situations, inadvertent contact with the graphic does not select the graphic. For example, when the gesture corresponding to the selection is a tap, the swipe gesture that sweeps over the application icon does not optionally select the corresponding application.

また、デバイス100は、任意選択的に、「ホーム」又はメニューボタン204などの1つ以上の物理ボタンも含む。前述のように、メニューボタン204は、任意選択的に、デバイス100上で任意選択的に実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーンディスプレイに表示されるGUI内のソフトキーとして実装される。 The device 100 also optionally includes one or more physical buttons such as "home" or menu button 204. As mentioned above, the menu button 204 is used to optionally navigate to any application 136 within a set of applications that are optionally executed on the device 100. Alternatively, in some embodiments, the menu button is implemented as a softkey in the GUI displayed on the touch screen display.

いくつかの実施形態では、デバイス100は、タッチスクリーンディスプレイ、メニューボタン204(ホームボタン204と呼ばれることもある)、デバイスの電源オン/オフ及びデバイスのロックのためのプッシュボタン206、ボリューム調節ボタン(単数又は複数)208、加入者識別モジュール(Subscriber Identity Module、SIM)カードスロット210、ヘッドセットジャック212、並びにドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、デバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。また、いくつかの実施形態では、デバイス100は、マイクロフォン113を通して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力を受け付ける。また、デバイス100は、任意選択的に、タッチ感知ディスプレイシステム112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザーに対する触知出力を生成する1つ以上の触知出力生成器167も含む。 In some embodiments, the device 100 has a touch screen display, a menu button 204 (sometimes referred to as a home button 204), a push button 206 for powering on / off the device and locking the device, and a volume control button (sometimes referred to as a home button 204). Includes one or more 208, a Subscriber Identity Module (SIM) card slot 210, a headset jack 212, and an external docking / charging port 124. The push button 206 optionally presses the button down to power the device on and off by holding the button down for a predetermined period of time, so that the button is pressed down for a predetermined period of time. Used to lock the device and / or to unlock the device or initiate the unlocking process by releasing the button before doing so. Also, in some embodiments, the device 100 accepts verbal input to activate or deactivate some functions through the microphone 113. Also, the device 100 may optionally generate one or more contact strength sensors 165 that detect the strength of contact on the touch-sensitive display system 112 and / or one or more tactile outputs to the user of the device 100. Also includes a tactile output generator 167.

図3は、いくつかの実施形態による、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育用デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、一般的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インターフェース360と、メモリ370と、これらのコンポーネントを相互接続する1つ以上の通信バス320とを含む。通信バス320は、システムコンポーネント間の通信を相互接続及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。デバイス300は、一般的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インターフェース330を含む。I/Oインターフェース330はまた任意選択で、キーボード及び/又はマウス(又は、他のポインティングデバイス)350、並びにタッチパッド355、デバイス300上で触知出力を生成する触知出力生成器357(例えば、図1Aを参照して上記説明された触知出力生成器167と同様の)、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上記説明された接触強度センサ165と同様の接触強度センサ)を含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、また任意選択で、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、CPU310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造、又はそれらのサブセットに類似の、プログラム、モジュール、及びデータ構造を記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は任意選択で、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は任意選択で、それらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device having a display and a touch sensitive surface, according to some embodiments. The device 300 does not have to be portable. In some embodiments, the device 300 is a laptop computer, desktop computer, tablet computer, multimedia player device, navigation device, educational device (such as a child's learning toy), gaming system, or control device (eg, home). Computer for business use or business use). The device 300 typically comprises one or more processing units (CPUs) 310, one or more networks or other communication interfaces 360, memory 370, and one or more communications interconnecting these components. Includes bus 320. The communication bus 320 optionally includes circuits (sometimes referred to as chipsets) that interconnect and control communication between system components. The device 300 includes an input / output (I / O) interface 330, including a display 340, which is generally a touch screen display. The I / O interface 330 is also optionally a keyboard and / or mouse (or other pointing device) 350, as well as a touchpad 355, a tactile output generator 357 (eg, tactile output generator 357) that produces tactile output on the device 300. Similar to the tactile output generator 167 described above with reference to FIG. 1A), sensor 359 (eg, optical sensor, acceleration sensor, proximity sensor, touch sensing sensor, and / or the above description with reference to FIG. 1A. A contact strength sensor similar to that of the contact strength sensor 165) is included. Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory device and optionally one or more magnetic disk storage devices, optical disk storage devices, flash memory devices. , Or other non-volatile memory such as solid-state storage devices. The memory 370 optionally includes one or more storage devices located remotely from the CPU 310. In some embodiments, the memory 370 is a program, module, and data structure similar to a program, module, and data structure stored in memory 102 of the portable multifunction device 100 (FIG. 1A), or a subset thereof. Remember. Further, the memory 370 optionally stores additional programs, modules, and data structures that do not exist in the memory 102 of the portable multifunction device 100. For example, the memory 370 of the device 300 optionally stores a drawing module 380, a presentation module 382, a word processing module 384, a website creation module 386, a disk authoring module 388, and / or a spreadsheet module 390, but is portable. The memory 102 of the functional device 100 (FIG. 1A) is optional and does not store those modules.

上記識別された図3における要素の各々は任意選択で、前に言及したメモリデバイスのうちの1つ以上に記憶される。上記識別されたモジュールのうちの各々は、上記説明された機能を実行する命令セットに対応する。上記識別されたモジュール又はプログラム(すなわち、命令セット)は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、よって、それらのモジュールの様々なサブセットは任意選択で、様々な実施形態において組み合わされ、又はその他の方式で再配置される。いくつかの実施形態では、メモリ370は、上記で識別されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the identified elements in FIG. 3 is optionally stored in one or more of the previously mentioned memory devices. Each of the identified modules corresponds to an instruction set that performs the functions described above. The identified modules or programs (ie, instruction sets) need not be implemented as separate software programs, procedures, or modules, so that various subsets of those modules are optional and various embodiments. Combined or otherwise rearranged in. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. Further, the memory 370 optionally stores additional modules and data structures not described above.

ここで、ポータブル多機能デバイス100上に任意選択で実装されるユーザーインターフェース(「UI」)の実施形態に留意する。 Here, attention should be paid to an embodiment of a user interface (“UI”) optionally implemented on the portable multifunction device 100.

図4Aは、いくつかの実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューのための例示的なユーザーインターフェース400を示す。同様のユーザーインターフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザーインターフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信のための信号強度インジケータ、
●時間、
●Bluetooth(登録商標)インジケータ、
●バッテリ状態インジケータ、
●下記などの、頻繁に使用されるアプリケーションのためのアイコンを有するトレー408:
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされる、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「音楽」とラベル付けされるビデオ及び音楽プレイヤモジュール152のためのアイコン422、並びに
●下記などの、その他のアプリケーションのためのアイコン:
○「メッセージ」とラベル付けされるIMモジュール141のためのアイコン424、
○「カレンダ」とラベル付けされる、カレンダモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株式」とラベル付けされる、株式ウィジェット149-2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「気象」とラベル付けされる、気象ウィジェット149-1用のアイコン438、
○「時計」とラベル付けされる、目覚まし時計ウィジェット149-4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A shows an exemplary user interface 400 for menus of applications on a portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on the device 300. In some embodiments, the user interface 400 includes the following elements, or a subset or superset thereof.
● Signal strength indicator for wireless communication such as cellular signal and Wi-Fi signal,
● Time,
Bluetooth® indicator,
● Battery status indicator,
Tray 408 with icons for frequently used applications such as:
Icon 416 for the telephone module 138, labeled "telephone", optionally including an indicator 414 for the number of missed calls or voice mail messages,
Icon 418 for email client module 140, labeled "mail", optionally including indicator 410 for the number of unread emails,
Icon 420 for browser module 147 labeled “Browser”, ○ Icon 422 for video and music player module 152 labeled “Music”, and ● Other applications such as: Icon for:
Icon 424 for IM module 141 labeled "Message",
Icon 426 for calendar module 148, labeled "calendar",
Icon 428 for image management module 144, labeled "Photo",
Icon 430 for camera module 143, labeled "Camera",
Icon 432 for online video module 155, labeled "online video",
Icon 434 for the stock widget 149-2, labeled "stock",
Icon 436 for map module 154, labeled "Map",
Icon 438 for Meteorological Widget 149-1, labeled "Weather",
Icon 440 for alarm clock widget 149-4, labeled "Clock",
Icon 442 for training support module 142, labeled "Training Support",
Icon 444 for memo module 153, labeled “Memo”, and • Icon 446 for configuration application or module, which provides access to settings for device 100 and its various applications 136.

図4Aに表示されたアイコンのラベルは単なる例に過ぎないことに留意されたい。例えば、他のラベルが任意選択で、様々なアプリケーションアイコンに使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンのラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon label displayed in FIG. 4A is merely an example. For example, other labels are optional and used for various application icons. In some embodiments, the label of each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different from the name of the application that corresponds to the particular application icon.

図4Bは、ディスプレイ450と分離したタッチ感知面451(例えば、タブレット又はタッチパッド355、図3)を有するデバイス(例えば、デバイス300、図3)上の例示的なユーザーインターフェースを示す。以下の実施例のうちの多くはタッチスクリーンディスプレイ112上の入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイと分離したタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bにおける451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bにおける453)に対応する主軸(例えば、図4Bにおける452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468に対応し、462は470に対応する)におけるタッチ感知面451との接触(例えば、図4Bにおける460及び462)を検出する。このように、タッチ感知面がディスプレイと分離しているとき、タッチ感知面(例えば、図4Bにおける451)上でデバイスによって検出されたユーザー入力(例えば、接触460及び462、及びそれらの移動)は、多機能デバイスのディスプレイ(例えば、図4Bにおける450)上でユーザーインターフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザーインターフェースに任意選択的に使用されることを理解されたい。 FIG. 4B shows an exemplary user interface on a device (eg, device 300, FIG. 3) having a touch sensing surface 451 (eg, tablet or touchpad 355, FIG. 3) separated from the display 450. Many of the following examples are given with reference to the inputs on the touch screen display 112 (when the touch sensitive surface and the display are combined), but in some embodiments the device is shown in FIG. 4B. As shown in, the input on the touch sensing surface separated from the display is detected. In some embodiments, the touch sensitive surface (eg, 451 in FIG. 4B) has a spindle (eg, 452 in FIG. 4B) that corresponds to a spindle on the display (eg, 450) (eg, 453 in FIG. 4B). Have. According to these embodiments, the device is in contact with the touch sensing surface 451 at a position corresponding to each position on the display (eg, in FIG. 4B, 460 corresponds to 468 and 462 corresponds to 470). (For example, 460 and 462 in FIG. 4B) are detected. Thus, when the touch-sensitive surface is separated from the display, user inputs (eg, contacts 460 and 462, and their movements) detected by the device on the touch-sensitive surface (eg, 451 in FIG. 4B) , Used by the device to manipulate the user interface on the display of a multifunctional device (eg, 450 in FIG. 4B). It should be understood that similar methods are optionally used for the other user interfaces described herein.

これに加えて、以下の説明は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャなど)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、マウスクリックと置き換えられ(例えば、接触の代わりに)、それに続いて、スワイプの経路に沿ってカーソルの移動が行われる(例えば、接触の移動の代わりに)。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザー入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 In addition to this, the following description is primarily described with reference to finger input (eg, finger contact, finger tap gestures, finger swipe gestures, etc.), but in some embodiments, they are described. It should be appreciated that one or more of the finger inputs are replaced by inputs from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced with a mouse click (eg, instead of a touch), followed by a cursor move along the swipe path (eg, instead of a touch move). ). As another example, tap gestures are optionally replaced with mouse clicks while the cursor is hovering over the position of the tap gesture (eg, detect a contact and then stop detecting the contact). instead of). Similarly, it is understood that when multiple user inputs are detected simultaneously, multiple computer mice are optionally and simultaneously used, or mouse and finger contact is optionally and simultaneously used. sea bream.

本明細書にて使用されるとき、用語「フォーカスセレクタ」とは、ユーザーが対話しているユーザーインターフェースの現在の部分を示す入力要素を指す。カーソル又は他のロケーションマーカを含むいくつかの実装形態において、カーソルは「フォーカスセレクタ」として機能し、これにより、カーソルが特定のユーザーインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザーインターフェース要素)の上にある間に、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されると、この特定のユーザーインターフェース要素が、検出された入力にしたがって調整される。タッチスクリーンディスプレイ上のユーザーインターフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図6Aのタッチスクリーン)を含むいくつかの実装形態では、タッチスクリーン上で検出された接触が「フォーカスセレクタ」として機能し、これにより、タッチスクリーンディスプレイ上の特定のユーザーインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザーインターフェース要素)の場所で入力(例えば、接触による押圧入力)が検出されると、この特定のユーザーインターフェース要素が、検出された入力にしたがって調節される。いくつかの実装形態では、(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンに移動させることによって)タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、フォーカスがユーザーインターフェースの1つの領域からユーザーインターフェースの別の領域に移動され、これらの実装形態では、フォーカスセレクタは、ユーザーインターフェースの異なる領域の間のフォーカスの移動にしたがって移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは一般的に、ユーザーの意図したユーザーインターフェースとの対話を通信するために(例えば、ユーザーが対話することを意図しているユーザーインターフェースの要素をデバイスに示すことによって)、ユーザーによって制御されるユーザーインターフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出されたときに、対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に表示されている他のユーザーインターフェース要素ではなく)対応するボタンをユーザーがアクティブ化しようとしていることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current part of the user interface with which the user is interacting. In some implementations, including a cursor or other location marker, the cursor acts as a "focus selector", which allows the cursor to be a specific user interface element (eg, a button, window, slider, or other user interface element. ), While an input (eg, a pressing input) is detected on the touch sensing surface (eg, touch pad 355 in FIG. 3 or touch sensing surface 451 in FIG. 4B), this particular user interface. The element is adjusted according to the detected input. In some embodiments, including a touch screen display (eg, touch-sensitive display system 112 of FIG. 1A, or touch screen of FIG. 6A), which allows direct interaction with user interface elements on the touch screen display. The contact detected on the touch screen acts as a "focus selector", which allows you to type at the location of a particular user interface element (eg, a button, window, slider, or other user interface element) on the touch screen display. When (eg, touch-pressed input) is detected, this particular user interface element is adjusted according to the detected input. In some embodiments, without moving the corresponding cursor or touch on the touchscreen display (eg, by using the tab key or arrow keys to move the focus from one button to another). Focus is moved from one area of the user interface to another area of the user interface, and in these embodiments, the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form taken by the focus selector, the focus selector is generally intended to communicate with the user's intended user interface (eg, the user's intended user interface). (By showing the element to the device), a user interface element (or contact on a touchscreen display) controlled by the user. For example, when a press input is detected on a touch sensitive surface (eg, touchpad or touchscreen), the position of the focus selector (eg, cursor, touch or selection box) above the corresponding button is (device). Indicates that the user is trying to activate the corresponding button (rather than the other user interface elements shown on the display).

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触又はスタイラスの接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力の代替するもの(プロキシ)を指す。接触の強度は、少なくとも4つの異なる値を含み、より典型的には、何百もの(例えば、少なくとも256個の)異なる値を含む値範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組合せを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、推定される接触の力を判定するために組み合わされる(例えば、加重平均又は合計)。同様に、タッチ感知面上のスタイラスの圧力を判定するために、スタイラスの圧力感知チップが、任意選択的に用いられる。あるいは、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代替物として、任意選択的に用いられる。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、強度閾値を超えているかを判定するために直接使用される(例えば、強度閾値は、代替的測定値に対応する単位で記述される)。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。接触の強度をユーザー入力の属性として使用することは、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するため、及び/又はユーザー入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的制御を介して)受信する面積が制限された、低減されたサイズのデバイスにおいて、ユーザーによるアクセスが他の場合に容易には不可能であり得る、追加のデバイス機能へのユーザーのアクセスを可能にする。 As used herein and in the claims, the term "strength" of contact on a touch-sensitive surface refers to the force or pressure of contact on a touch-sensitive surface (eg, finger contact or stylus contact). Force per unit area), or a substitute for contact force or pressure on the touch-sensitive surface (proxy). The contact strength contains at least four different values and more typically has a value range containing hundreds (eg, at least 256) different values. Contact strength is optionally determined (or measured) using different methods and different sensors or combinations of sensors. For example, one or more force sensors below or adjacent to the touch sensing surface are optionally used to measure forces at various points on the touch sensing surface. In some implementations, force measurements from multiple force sensors are combined to determine the estimated contact force (eg, weighted average or sum). Similarly, a stylus pressure sensing chip is optionally used to determine the stylus pressure on the touch sensing surface. Alternatively, the size and / or its change in the contact area detected on the touch sensing surface, the capacitance and / or its change in the touch sensing surface close to the contact, and / or the resistance of the touch sensing surface close to the contact and / or / Or its changes are optionally used as an alternative to the force or pressure of contact on the touch-sensitive surface. In some embodiments, the alternative measurement for contact force or pressure is used directly to determine if the intensity threshold is exceeded (eg, the intensity threshold is the unit corresponding to the alternative measurement). Will be described). In some embodiments, alternative measurements for contact force or pressure are converted to estimated force or pressure and used to determine if the estimated force or pressure exceeds the intensity threshold. (For example, the intensity threshold is a pressure threshold measured in units of pressure). Using contact strength as an attribute of user input is to display affordances (eg, on a touch-sensitive display) and / or to display user input (eg, touch-sensitive display, touch-sensitive surface, or knob or button). To additional device features where user access may not be easily possible in other cases on devices of reduced size, with limited coverage (via physical / mechanical control, such as). Allows user access.

いくつかの実施形態では、接触/動きモジュール130は、ユーザーによって操作が実行されたか否かを判定するための(例えば、ユーザーがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、少なくとも強度閾値のサブセットは、ソフトウェアパラメータにしたがって決定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって決定されず、デバイス100の物理ハードウェアを変更することなく調節されてもよい)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の所定の閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザーは、強度閾値の組のうちの1つ以上を調節するソフトウェア設定が提供される(例えば、個々の強度閾値を調節することによって、及び/又はシステムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調節することによって)。 In some embodiments, the contact / motion module 130 determines if the operation has been performed by the user (eg, to determine if the user has "clicked" on the icon). Use one or more sets of intensity thresholds. In some embodiments, at least a subset of intensity thresholds are determined according to software parameters (eg, intensity thresholds are not determined by the activation threshold of a particular physical actuator and modify the physical hardware of device 100. May be adjusted without). For example, the mouse "click" threshold of a trackpad or touchscreen display can be set to any of a wide range of predetermined thresholds without changing the hardware of the trackpad or touchscreen display. In addition, in some implementations, the user of the device is provided with software settings that adjust one or more of a set of intensity thresholds (eg, by adjusting individual intensity thresholds and / or. By adjusting multiple intensity thresholds at once with the system-level click "intensity" parameter).

本明細書及び特許請求の範囲で使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、所定の数の強度サンプル、あるいは所定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終わりを検出する前、接触の強度の増加を検出する前若しくは後、及び/又は接触の強度の減少を検出する前若しくは後)に対する予め定められた時間期間の間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)に収集された強度サンプルの組に基づく。接触の特性強度は任意選択で、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値、所定の期間にわたって、又は所定の時間において開始した接触の強度を低域通過フィルタリングすることによって生成された値などのうちの1つ以上に基づく。いくつかの実施形態では、特性強度を決定するために、(例えば、特性強度が経時的な接触の強度の平均であるとき)接触の持続期間が使用される。いくつかの実施形態では、操作がユーザーによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、第1の強度閾値及び第2の強度閾値を含むことができる。この実施例では、第1の閾値を上回らない特性強度との接触の結果として第1の操作が実行され、第1の強度閾値を上回り第2の強度閾値を上回らない特性強度との接触の結果として第2の操作が実行され、第2の強度閾値を上回る特性強度との接触の結果として第3の操作が実行される。いくつかの実施形態では、特性強度と1つ以上の強度閾値との間の比較が、第1の操作又は第2の操作のいずれを実行するかを決定するために使用されるのではなく、1つ以上の操作を実行するかどうか(例えば、それぞれのオプションを実行するのか、又はそれぞれの操作の実行を取り止めるのか)を決定するために使用される。 As used herein and in the claims, the term "characteristic strength" of a contact refers to the characteristic of a contact based on one or more strengths of the contact. In some embodiments, the characteristic intensities are based on multiple intensity samples. The characteristic strength is optionally a predetermined number of intensity samples, or a predetermined event (eg, after detecting a contact, before detecting a lift-off of a contact, before or after detecting the start of movement of a contact, or after contact. For a predetermined time period (eg, 0.05, before or after detecting the end of contact, before or after detecting an increase in contact strength, and / or before or after detecting a decrease in contact strength). Based on a set of intensity samples collected at 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The contact characteristic strength is optional, the maximum value of the contact strength, the average value of the contact strength (mean value), the average value of the contact strength (average value), the top 10% value of the contact strength, and the contact strength. Of the half of the maximum value of, 90% of the maximum value of the contact strength, the value generated by low-pass filtering the contact strength initiated over a given time period or at a given time, etc. Based on one or more of. In some embodiments, the duration of contact is used to determine the property strength (eg, when the property strength is the average of the strength of the contact over time). In some embodiments, characteristic intensities are compared to one or more sets of intensity thresholds to determine if the operation was performed by the user. For example, a set of one or more intensity thresholds can include a first intensity threshold and a second intensity threshold. In this embodiment, the first operation is performed as a result of contact with a characteristic intensity that does not exceed the first threshold, and the result of contact with a characteristic intensity that exceeds the first intensity threshold and does not exceed the second intensity threshold. A second operation is performed as a result of contact with a characteristic strength above the second strength threshold. In some embodiments, the comparison between the characteristic intensity and one or more intensity thresholds is not used to determine whether to perform the first operation or the second operation. It is used to determine whether to perform one or more operations (eg, whether to perform each option or cancel each operation).

いくつかの実施形態では、ジェスチャの一部は、特性強度を決定する目的で識別される。例えば、タッチ感知面は、開始場所から遷移して終了場所まで達する連続的なスワイプ接触(例えば、ドラッグジェスチャ)を受け取る場合があり、この終了場所で接触の強度が増加する。この実施例では、終了場所における接触の特性強度は、連続的なスワイプ接触全体ではなく、そのスワイプ接触の一部分のみ(例えば、スワイプ接触の終了場所における部分のみ)に基づいてもよい。いくつかの実施形態では、接触の特性強度を決定する前に、平滑化アルゴリズムをそのスワイプ接触の強度に適用してもよい。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を決定する目的で、スワイプ接触の強度の小幅な上昇又は低下を除外する。 In some embodiments, some of the gestures are identified for the purpose of determining characteristic intensity. For example, the touch-sensitive surface may receive a continuous swipe contact (eg, drag gesture) that transitions from the start location to the end location, at which the strength of the contact increases. In this embodiment, the characteristic strength of the contact at the end location may be based on only a portion of the swipe contact (eg, only the portion at the end location of the swipe contact) rather than the entire continuous swipe contact. In some embodiments, a smoothing algorithm may be applied to the strength of the swipe contact before determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and / or an exponential smoothing algorithm. In some situations, these smoothing algorithms exclude a modest increase or decrease in the strength of the swipe contact for the purpose of determining the characteristic intensity.

本明細書で説明されるユーザーインターフェースの図は任意選択で、1つ以上の強度閾値(例えば、接触検出強度閾値IT、軽い押圧強度閾値IT、深い押圧強度閾値IT(例えば、少なくとも最初はITよりも高い)、及び/又は1つ以上の他の強度閾値(例えば、ITよりも低い強度閾値IT))に対する、タッチ感知面上の接触の現在の強度を示す、様々な強度の図を含む。この強度の図は、概して示されたユーザーインターフェースの一部ではなくて、図の解釈を支援するために提供される。いくつかの実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドのクリックに通常は関連付けられた操作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドのクリックに通常は関連付けられた操作とは異なる操作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触がもはや検出されない名目上の接触検出強度閾値ITを上回る)特性強度で接触が検出されるとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値と関連付けられた操作を実行することなく、タッチ感知面上の接触の移動にしたがってフォーカスセレクタを移動させる。概して、特に明記されない限り、これらの強度閾値は、ユーザーインターフェースの形態の異なるセットの間で一貫している。 The user interface diagrams described herein are optional and have one or more intensity thresholds (eg, contact detection intensity threshold IT 0 , light pressing intensity threshold IT L , deep pressing intensity threshold IT D (eg, at least first). Indicates the current intensity of contact on the touch-sensitive surface to (eg, higher than ITL ) and / or one or more other intensity thresholds (eg, lower intensity threshold ITH ) than ITL ). Includes strength diagram. This intensity diagram is not generally part of the user interface shown and is provided to aid in the interpretation of the diagram. In some embodiments, the light press intensity threshold corresponds to the intensity with which the device performs an operation normally associated with a physical mouse button or trackpad click. In some embodiments, the deep press intensity threshold corresponds to the intensity with which the device performs an operation different from the operation normally associated with a physical mouse button or trackpad click. In some embodiments, the device detects contact at a characteristic intensity below a light pressing intensity threshold (eg, above the nominal contact detection intensity threshold IT 0 where contact is no longer detected). The focus selector is moved according to the movement of the contact on the touch sensing surface without performing the operation associated with the light or deep pressing intensity threshold. In general, these intensity thresholds are consistent across different sets of user interface morphologies, unless otherwise stated.

いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力の間の接触強度に基づく基準に依存する。例えば、いくつかの「軽い押圧」入力について、入力の間の第1の強度閾値を超える接触の強度は第1の応答をトリガする。いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力の間の接触強度及び時間に基づく基準の両方を含む基準に依存する。例えば、いくつかの「深い押圧」入力について、入力の間の軽い押圧に対する第1の強度閾値より大きい第2の強度閾値を超える接触の強度は、第1の強度閾値を満たすことと第2の強度閾値を満たすこととの間で遅延時間が経過した場合のみ、第2の応答をトリガする。この遅延時間は典型的には、継続時間が200ms(ミリ秒)よりも短い(例えば、第2の強度閾値の大きさに依存して、40ms、100ms、又は120msであり、遅延時間は第2の強度閾値が増加するにつれて増加する)。この遅延時間は、深い押圧入力の偶発的な認識を回避するのを助ける。別の実施例として、いくつかの「深い押圧」について、第1の強度閾値が満たされる時間の後に発生する、感度が低下した時間期間が存在する。感度が低下した時間期間の間、第2の強度閾値は増加する。第2の強度閾値のこの一時的な増加もまた、偶発的な深い押圧入力を回避するのを助ける。他の深い押圧入力について、深い押圧入力の検出に対する応答は、時間に基づく基準に依存しない。 In some embodiments, the device's response to the input detected by the device depends on a criterion based on the contact strength between the inputs. For example, for some "light press" inputs, the intensity of the contact above the first intensity threshold between the inputs triggers the first response. In some embodiments, the device's response to an input detected by the device depends on a criterion that includes both contact strength and time-based criteria between the inputs. For example, for some "deep press" inputs, the intensity of the contact above the second intensity threshold, which is greater than the first intensity threshold for the light press between the inputs, satisfies the first intensity threshold and the second. Only if the delay time elapses between satisfying the intensity threshold will the second response be triggered. This delay time is typically less than 200 ms (milliseconds) (eg, 40 ms, 100 ms, or 120 ms, depending on the magnitude of the second intensity threshold, and the delay time is second. Increases as the intensity threshold of) increases). This delay time helps avoid accidental recognition of deep press inputs. As another embodiment, for some "deep presses", there is a desensitized time period that occurs after the time when the first intensity threshold is met. The second intensity threshold increases during the time period when the sensitivity is reduced. This temporary increase in the second intensity threshold also helps avoid accidental deep pressing inputs. For other deep press inputs, the response to the detection of deep press inputs does not depend on time-based criteria.

いくつかの実施形態では、入力強度閾値及び/又は対応する出力のうちの1つ以上は、ユーザー設定、接触の動き、入力タイミング、実行しているアプリケーション、強度が加わる速度、同時に行われる入力の数、ユーザー履歴、環境要因(例えば、周囲ノイズ)、フォーカスセレクタの位置などの1つ以上の要因に基づいて変化する。例示的な要因が、米国特許出願第14/399,606号及び第14/624,296号に記載されており、それらの全体が参照により本明細書に組み込まれている。 In some embodiments, one or more of the input intensity thresholds and / or corresponding outputs are user settings, contact movements, input timings, running applications, speeds at which intensity is applied, and simultaneous inputs. It varies based on one or more factors such as number, user history, environmental factors (eg, ambient noise), focus selector position, and so on. Exemplary factors are described in US Patent Applications 14 / 399,606 and 14 / 624,296, all of which are incorporated herein by reference.

例えば、図4Cは、経時的なタッチ入力476の強度に部分的に基づいて経時的に変化する動的強度閾値480を示す。動的強度閾値480は、2つの成分、タッチ入力476が最初に検出されるときから所定の遅延時間p1の後に経時的に減衰する第1の成分474、及び経時的にタッチ入力476の強度を追跡する第2の成分478の合計である。第1の成分474の初期の高強度閾値は、「深い押圧」応答を偶発的にトリガすることを削減すると共に、タッチ入力476が十分な強度を提供する場合に即時的な「深い押圧」応答をなおも可能にする。第2の成分478は、タッチ入力における段階的な強度変動によって「深い押圧」応答を意図せずにトリガすることを削減する。いくつかの実施形態では、タッチ入力476が動的強度閾値480を満たすとき(例えば、図4Cのポイント481において)、「深い押圧」応答がトリガされる。 For example, FIG. 4C shows a dynamic intensity threshold 480 that changes over time based in part on the intensity of the touch input 476 over time. The dynamic intensity threshold 480 determines the intensity of the two components, the first component 474, which decays over time after a predetermined delay time p1 from the time the touch input 476 is first detected, and the touch input 476 over time. It is the sum of the second component 478 to be tracked. The initial high intensity threshold of the first component 474 reduces accidental triggering of a "deep press" response and is an immediate "deep press" response if the touch input 476 provides sufficient intensity. Is still possible. The second component 478 reduces unintentional triggering of a "deep press" response by gradual intensity fluctuations in the touch input. In some embodiments, when the touch input 476 meets the dynamic intensity threshold 480 (eg, at point 481 in FIG. 4C), a "deep press" response is triggered.

図4Dは、別の動的強度閾値486(例えば、強度閾値I)を示す。図4Dはまた、2つの他の強度閾値、第1の強度閾値IT及び第2の強度閾値Iを示す。図4Dにおいて、タッチ入力484が時間p2の前に第1の強度閾値IT及び第2の強度閾値ITを満たすが、時間482において遅延時間p2が経過するまでは応答が提供されない。また、図4Dでは、動的強度閾値486は、所定の遅延時間p1が時間482から経過した後(第2の強度閾値ITと関連付けられた応答がトリガされたとき)の時間488において開始する減衰で、経時的に減衰する。このタイプの動的強度閾値は、第1の強度閾値I又は第2の強度閾値Iなど、より低い強度閾値と関連付けられた応答をトリガした直後、又はそれと同時に動的強度閾値Iと関連付けられた応答を偶発的にトリガすることを削減する。 FIG. 4D shows another dynamic intensity threshold 486 (eg, intensity threshold ID ). FIG. 4D also shows two other intensity thresholds, a first intensity threshold ITH and a second intensity threshold IL . In FIG. 4D, the touch input 484 satisfies the first intensity threshold ITH and the second intensity threshold ITL before time p2, but no response is provided until the delay time p2 elapses at time 482. Also, in FIG. 4D, the dynamic intensity threshold 486 starts at time 488 after a predetermined delay time p1 has elapsed from time 482 (when the response associated with the second intensity threshold ITL is triggered). With decay, it decays over time. This type of dynamic intensity threshold is associated with the dynamic intensity threshold ID immediately after, or simultaneously with, triggering a response associated with a lower intensity threshold, such as the first intensity threshold I H or the second intensity threshold IL. Reduce accidental triggering of associated responses.

図4Eは、更なる別の動的強度閾値492(例えば、強度閾値I)を示す。図4Eにおいて、強度閾値ITと関連付けられた応答は、タッチ入力490が最初に検出されるときから遅延時間p2が経過した後にトリガされる。同時に、動的強度閾値492は、タッチ入力490が最初に検出されるときから所定の遅延時間p1が経過した後に減衰する。よって、タッチ入力490を解放することなく、強度閾値Iと関連付けられた応答をトリガした後のタッチ入力490の強度の減少と、その後に続くタッチ入力490の強度における増加は、タッチ入力490の強度が別の強度閾値、例えば、強度閾値Iを下回るときでさえ強度閾値ITと関連付けられた応答をトリガすることができる(例えば、時間494において)。 FIG. 4E shows yet another dynamic intensity threshold 492 (eg, intensity threshold ID ). In FIG. 4E, the response associated with the intensity threshold ITL is triggered after a delay time p2 has elapsed since the touch input 490 was first detected. At the same time, the dynamic intensity threshold 492 is attenuated after a predetermined delay time p1 has elapsed since the touch input 490 was first detected. Thus, without releasing the touch input 490, the decrease in the intensity of the touch input 490 after triggering the response associated with the intensity threshold IL and the subsequent increase in the intensity of the touch input 490 is that of the touch input 490. The response associated with the intensity threshold IT D can be triggered even when the intensity falls below another intensity threshold, eg, intensity threshold IL (eg, at time 494).

軽い押圧強度閾値ITを下回る強度から軽い押圧強度閾値ITと深い押圧強度閾値ITとの間の強度への接触の特性強度の増加は、「軽い押圧」入力と称される場合がある。深い押圧強度閾値ITを下回る強度から深い押圧強度閾値ITを上回る強度への接触の特性強度の増加は、「深い押圧」入力と称される場合がある。接触検出強度閾値ITを下回る強度から接触検出強度閾値ITと軽い押圧強度閾値ITとの間の強度への接触の特性強度の増加は、タッチ面上の接触の検出と称される場合がある。接触検出強度閾値ITを上回る強度から接触検出強度閾値ITを下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と称される場合がある。いくつかの実施形態では、ITはゼロである。いくつかの実施形態では、ITはゼロよりも大きい。いくつかの図では、タッチ感知面上の接触の強度を表すために、影付きの円又は楕円が使用される。いくつかの図では、それぞれの接触の強度を指定することなく、タッチ感知面上のそれぞれの接触を表すために、影なしの円又は楕円が使用される。 The increase in the characteristic strength of contact from strength below the light press strength threshold IT L to strength between the light press strength threshold IT L and the deep press strength threshold IT D is sometimes referred to as the "light press" input. .. The increase in characteristic strength of contact from an intensity below the deep pressing intensity threshold IT D to an intensity above the deep pressing intensity threshold IT D is sometimes referred to as a "deep pressing" input. When the increase in the characteristic strength of the contact from the strength below the contact detection strength threshold IT 0 to the strength between the contact detection strength threshold IT 0 and the light pressing strength threshold IT L is referred to as the detection of contact on the touch surface. There is. The decrease in the characteristic strength of the contact from the strength above the contact detection strength threshold IT 0 to the strength below the contact detection strength threshold IT 0 may be referred to as the detection of lift-off of contact from the touch surface. In some embodiments, IT 0 is zero. In some embodiments, IT 0 is greater than zero. In some figures, shaded circles or ellipses are used to represent the strength of contact on the touch-sensitive surface. In some figures, shadowless circles or ellipses are used to represent each contact on the touch-sensitive surface without specifying the strength of each contact.

本明細書で説明されるいくつかの実施形態では、1つ以上の操作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは、複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度における増加を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの操作は、押圧入力強度閾値を上回るそれぞれの接触の強度における増加を検出したことに応じて実行される(例えば、それぞれの操作は、それぞれの押圧入力の「ダウンストローク」上で実行される)。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度における増加、及び押圧入力強度閾値を下回る接触の強度におけるその後の減少を含み、それぞれの操作は、押圧入力閾値を下回るそれぞれの接触の強度におけるその後の減少を検出したことに応じて実行される(例えば、それぞれの操作は、それぞれの押圧入力の「アップストローク」上で実行される)。 In some embodiments described herein, one or more operations are performed in response to the detection of a gesture containing each press input, or at each contact (or multiple contacts). Each press input is executed in response to the detection of each press input, and each press input is at least partially based on the detection of an increase in the intensity of a contact (or multiple contacts) above the press input intensity threshold. Detected. In some embodiments, each operation is performed in response to detecting an increase in the strength of each contact above the press input intensity threshold (eg, each operation is "down" for each press input. Performed on the "stroke"). In some embodiments, the press input comprises an increase in the intensity of each contact above the press input intensity threshold and a subsequent decrease in the intensity of the contact below the press input intensity threshold, and each operation comprises a press input threshold. It is performed in response to the detection of a subsequent decrease in the strength of each contact below (eg, each operation is performed on the "upstroke" of each press input).

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との所定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。よって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度における増加、及び押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度におけるその後の減少を含み、それぞれの操作は、ヒステリシス強度閾値を下回るそれぞれの接触の強度におけるその後の減少を検出したことに応じて実行される(例えば、それぞれの操作は、それぞれの押圧入力の「アップストローク」上で実行される)。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増加、及び任意選択的に、ヒステリシス強度以下の強度への後続の接触の強度の減少を検出するときのみ検出され、それぞれの操作は、その押圧入力の検出(例えば、状況に応じて、接触の強度の増加、又は接触の強度の減少)に応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid accidental inputs, which may be referred to as "jitter", and the device has a hysteresis intensity threshold that has a predetermined relationship with the pressing input intensity threshold. (For example, the hysteresis intensity threshold is an X intensity unit lower than the pressing input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable ratio of the pressing input intensity threshold. ). Thus, in some embodiments, the press input comprises an increase in the intensity of each contact above the press input intensity threshold and a subsequent decrease in the intensity of the contact below the hysteresis intensity threshold corresponding to the press input intensity threshold. Each operation is performed in response to detecting a subsequent decrease in the strength of each contact below the hysteresis strength threshold (eg, each operation is performed on the "upstroke" of each pressing input. Ru). Similarly, in some embodiments, the press input is such that the device increases the intensity of contact from an intensity below the hysteresis intensity threshold to an intensity above the press input intensity threshold, and optionally, an intensity below the hysteresis intensity. Detected only when detecting a decrease in the strength of subsequent contacts to, each operation responds to the detection of its pressing input (eg, increasing contact strength or decreasing contact strength, depending on the situation). Is executed.

説明を容易にするために、押圧入力強度閾値と関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される操作の説明は任意選択で、押圧入力強度閾値を上回る接触の強度の増加、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増加、押圧入力強度閾値を下回る接触の強度の減少、又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じてトリガされる。加えて、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて操作が実行されるとして説明される実施例では、操作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。上記説明されたように、いくつかの実施形態では、それらの応答のトリガはまた、満たされる時間に基づく基準(例えば、ある遅延時間が、第1の強度閾値が満たされることと第2の強度閾値が満たされることとの間で経過してしまっている)に依存する。 For ease of explanation, the description of the operation performed in response to the press input associated with the press input intensity threshold or in response to a gesture involving the press input is optional and is for a contact that exceeds the press input intensity threshold. Increased strength, increased contact strength from strength below the hysteresis strength threshold to strength above the pressed input strength threshold, decreased contact strength below the pressed input strength threshold, or a hysteresis strength threshold corresponding to the pressed input strength threshold. Triggered in response to detecting a decrease in contact strength below. In addition, in the embodiments described as performing the operation in response to detecting a decrease in contact intensity below the press input intensity threshold, the operation optionally corresponds to the press input intensity threshold. And it is executed in response to the detection of the decrease in the intensity of the contact below the hysteresis intensity threshold lower than that. As described above, in some embodiments, the triggers for those responses are also time-based criteria (eg, certain delay times that meet the first intensity threshold and the second intensity. It depends on what has passed since the threshold was met).

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザーの触覚でユーザーによって検出されることになる、デバイスの従前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、デバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザーの表面(例えば、ユーザーの指、手のひら、又は手の他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性の認識された変化に相当する触感として、ユーザーによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、任意選択的に、ユーザーによって物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」と解釈される。いくつかの場合、ユーザーの移動により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザーは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の動きは、タッチ感知面の平滑度に変化がない場合であっても、ユーザーによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザーによるタッチの解釈は、ユーザーの個人的な感覚認知に左右されるが、大多数のユーザーに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザーの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するものとして説明されるとき、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザーの説明された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。触覚フィードバックをユーザーに提供するために触知出力を使用することは、デバイスの操作性を高め、ユーザーデバイスインターフェースを更に効率的にし(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As used herein and in the claims, the term "tactile output" is the physical displacement of the device with respect to the previous position of the device, the configuration of the device, which will be detected by the user by the user's tactile sensation. Refers to the physical displacement of an element (eg, a touch-sensitive surface) with respect to another component of the device (eg, housing), or the displacement of the component with respect to the mass center of the device. For example, the tactile sensation generated by physical displacement in situations where the device or components of the device are in contact with a touch-sensitive user's surface (eg, the user's fingers, palm, or other part of the hand). The output is interpreted by the user as a tactile sensation that corresponds to a perceived change in the physical properties of the device or its components. For example, the movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, the user "down-clicks" or "up-clicks" even when there is no physical actuator button movement associated with the touch-sensitive surface physically pressed (eg, displaced) by the user's movement. I feel the tactile sensation. As another embodiment, the movement of the touch-sensitive surface is optionally interpreted or sensed by the user as the "roughness" of the touch-sensitive surface, even if the smoothness of the touch-sensitive surface does not change. Will be done. The interpretation of touches by such users depends on the user's personal sensory perception, but there are many sensory perceptions common to the majority of users. Therefore, when the tactile output is described as corresponding to a particular sensory perception of the user (eg, "up-click", "down-click", "roughness"), it was generated unless otherwise stated. The tactile output corresponds to the physical displacement of the device, or component of the device, that produces the typical (or average) user's described sensory cognition. Using the tactile output to provide tactile feedback to the user enhances the usability of the device and makes the user device interface more efficient (eg, providing appropriate input when manipulating / interacting with the device). By assisting the user and reducing user error), in addition it reduces power consumption by allowing the user to use the device more quickly and efficiently, and the battery of the device. Improve lifespan.

いくつかの実施形態では、触知出力パターンは、触知出力の振幅、触知出力の移動波形の形状、触知出力の周波数、及び/又は触知出力の期間などの触知出力の特性を指定する。 In some embodiments, the tactile output pattern exhibits tactile output characteristics such as tactile output amplitude, tactile output moving waveform shape, tactile output frequency, and / or tactile output duration. specify.

異なる触知出力パターンを有する触知出力がデバイスによって(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)生成されるとき、触知出力は、デバイスを保持又はタッチするユーザーに異なる触覚感覚を引き起こすことができる。ユーザーの感覚が触知出力のユーザーの知覚に基づく一方で、ほとんどのユーザーは、デバイスによって生成される触知出力の波形、周波数及び振幅の変化を識別することが可能である。したがって、波形、周波数及び振幅は、異なる操作が実行されたことをユーザーに知らせるように調整することができる。このようにして、所与の環境(例えば、グラフィカルな特徴及びオブジェクトを含むユーザーインターフェース、仮想境界及び仮想オブジェクトを有する擬似的な物理環境、物理境界及び物理オブジェクトを有する現実の物理環境、並びに/又は上記のいずれかの組合せ)におけるオブジェクトの、特性(例えば、サイズ、材質、重量、剛性、平滑度など)、挙動(例えば、振動、変位、加速、回転、拡大など)、及び/又は対話(例えば、衝突、付着、反発、引き付け、摩擦など)をシミュレートするように設計、選択、及び/又は加工された触知出力パターンを有する触知出力は、いくつかの状況では、デバイスのユーザーの操作の入力誤りを削減して効率性を増大させる、有益なフィードバックをユーザーに提供する。加えて、擬似的な物理的特性(例えばオブジェクトの入力された出発点又は選択)とは無関係であるフィードバックに対応するために、触知出力は、任意選択的に、発生する。そのような触知出力は、いくつかの状況では、ユーザーのデバイス操作の入力誤りを削減し、効率性を増大させる有益なフィードバックをユーザーに提供する。 When a tactile output with a different tactile output pattern is generated by the device (eg, via one or more tactile output generators that move the moving mass to generate the tactile output), the tactile output. Can cause different tactile sensations to the user holding or touching the device. While the user's sensation is based on the user's perception of the tactile output, most users are able to identify changes in the waveform, frequency and amplitude of the tactile output produced by the device. Therefore, the waveform, frequency and amplitude can be adjusted to inform the user that different operations have been performed. In this way, a given environment (eg, a user interface with graphical features and objects, a pseudo-physical environment with virtual boundaries and virtual objects, a real physical environment with physical boundaries and physical objects, and / or The characteristics (eg, size, material, weight, rigidity, smoothness, etc.), behavior (eg, vibration, displacement, acceleration, rotation, enlargement, etc.) and / or dialogue (eg, vibration, displacement, acceleration, rotation, expansion, etc.) of the object in any of the above combinations). , Collision, adhesion, repulsion, attraction, friction, etc.) The tactile output has a tactile output pattern designed, selected, and / or processed to simulate the user's operation of the device in some situations. Provide useful feedback to users to reduce typos and increase efficiency. In addition, the tactile output is optionally generated to accommodate feedback that is independent of the pseudo-physical properties (eg, the input starting point or selection of the object). Such tactile outputs provide useful feedback to the user in some situations, reducing typographical errors in the user's device operation and increasing efficiency.

いくつかの実施形態では、適切な触知出力パターンを有する触知出力は、ユーザーインターフェース内又はデバイス内のシーンの背後の関心イベントの発生に対する合図としての役割を果たす。関心イベントの例は、デバイス上又はユーザーインターフェース内で提供されるアフォーダンス(例えば、実ボタン、仮想ボタン、又はトグルスイッチ)のアクティブ化、要求された操作の成功又は失敗、ユーザーインターフェース内の境界に到達すること又は超えること、新たな状態に入ること、オブジェクト間の入力の焦点を切り替えること、新たなモードのアクティブ化、入力閾値に到達すること又は超えること、入力又はジェスチャのタイプの検出又は認識などを含む。いくつかの実施形態では、触知出力は、リダイレクション又は中断入力が時宜を得て検出されない限り発生する、近いうち起こるイベント又は結果に対する警告又はアラートしての役割を果たすように提供される。触知出力はまた、他のコンテキストでも使用されて、ユーザー体験を豊かにし、視覚若しくは運動上の困難をかかえるユーザーへのデバイスのアクセシビリティ若しくは他のアクセシビリティの必要性を改善し、並びに/又はユーザーインターフェース及び/若しくはデバイスの効率性及び機能性を改善する。触知出力は任意選択で、音声出力及び/又は視認可能なユーザーインターフェースの変更を伴い、それは、ユーザーがユーザーインターフェース及び/又はデバイスと対話するときのユーザーの体験を更に高め、ユーザーインターフェース及び/又はデバイスの状態に関する情報の搬送を更に促進し、並びにデバイスのユーザーの操作の入力誤りを削減し、効率性を増大させる。 In some embodiments, the tactile output with the appropriate tactile output pattern serves as a signal to the occurrence of an event of interest behind the scene in the user interface or device. Examples of interest events are activation of affordances (eg, real buttons, virtual buttons, or toggle switches) provided on the device or within the user interface, success or failure of the requested operation, reaching boundaries within the user interface. To or exceed, to enter a new state, to switch the focus of an input between objects, to activate a new mode, to reach or exceed an input threshold, to detect or recognize the type of input or gesture, etc. including. In some embodiments, the tactile output is provided to serve as a warning or alert for an upcoming event or outcome that occurs unless a redirection or interrupted input is timely detected. Tactile output is also used in other contexts to enrich the user experience, improve the accessibility of the device or the need for other accessibility to users with visual or motor difficulties, and / or the user interface. And / or improve the efficiency and functionality of the device. Tactile output is optional and involves changes in audio output and / or visible user interface, which further enhances the user's experience when interacting with the user interface and / or device, user interface and / or It further facilitates the transfer of information about the state of the device, reduces typographical errors in the user's operation of the device, and increases efficiency.

図4F~4Hは、個々に、又は、組み合わせて、そのまま又は、1つ以上の変換(例えば、変調、増幅、切捨てなど)によって使用して、上述のような、及び本明細書において論ずるユーザーインターフェース及び方法に関して記載されている各種のシナリオの、そして、各種の目的のための、適切な触覚フィードバックを作り出すことができる一組のサンプル触知出力パターンを提供する。触知出力のパレットのこの例は、3つの波形及び8つの周波数のセットが触知出力パターンの配列を作るためにどのように用いることができるかについて示す。これらの図に表示される触知出力パターンに加えて、例えば、示すように、図4I~4Kのフルタップ80Hz、フルタップ200Hz、ミニタップ80Hz、ミニタップ200Hz、マイクロタップ80Hz及びマイクロタップ200Hzに対する触知出力パターンのための利得値を変えることによって、これらの触知出力パターンのそれぞれは振幅において任意選択的に調整され、そして、それは1.0、0.75、0.5及び0.25の利得を有する異型によって各々示される。図4I~4Kに示すように、触知出力パターンの獲得を変えることで、パターンの周波数を変えるか又は波形の形状を変えることなくパターンの振幅が変わる。いくつかの実施形態では、触知出力パターンの周波数も変えることは振幅を低くする結果にもなり、なぜなら、いくつかの触知出力生成器はどれだけの力が可動質量に加えられ得るかによって制限され、したがって質量のより高い周波数の移動は振幅をより低くすることを強いられて、波形を作るために必要な加速は、触知出力生成器の操作上の力の範囲外の力を必要とはしない(例えば、230Hz、270Hz及び300Hzでのフルタップのピーク振幅は、80Hz、100Hz、125Hz、及び200Hzでのフルタップの振幅より低い)ことを確実にするからである。 4F-4H are used individually or in combination, as is or by one or more transformations (eg, modulation, amplification, truncation, etc.), as described above, and the user interfaces discussed herein. And provide a set of sample tactile output patterns that can produce appropriate tactile feedback for the various scenarios described and for different purposes. This example of a palette of tactile outputs shows how a set of three waveforms and eight frequencies can be used to create an array of tactile output patterns. In addition to the tactile output patterns displayed in these figures, for example, as shown, tactile output patterns for full tap 80Hz, full tap 200Hz, mini tap 80Hz, mini tap 200Hz, micro tap 80Hz and micro tap 200Hz in FIGS. 4I-4K. Each of these tactile output patterns is optionally adjusted in amplitude by varying the gain value for, and it has gains of 1.0, 0.75, 0.5 and 0.25. Each is indicated by atypical. As shown in FIGS. 4I-4K, by changing the acquisition of the tactile output pattern, the amplitude of the pattern changes without changing the frequency of the pattern or the shape of the waveform. In some embodiments, changing the frequency of the tactile output pattern also results in lower amplitude, because some tactile output generators depend on how much force can be applied to the moving mass. Limited, and therefore movement of higher frequencies of mass is forced to lower the amplitude, the acceleration required to create the waveform requires a force outside the operational force of the tactile output generator. (For example, the peak amplitude of a full tap at 230 Hz, 270 Hz, and 300 Hz is lower than the amplitude of a full tap at 80 Hz, 100 Hz, 125 Hz, and 200 Hz).

図4F~4Kは、特定の波形を有する触知出力パターンを示す。触知出力パターンの波形は、可動質量が通過してその触知出力パターンで触知出力を生成する時間に対して、中立位置(例えば、xzero)と比べた物理的変位のパターンを表す。例えば、図4Fに示す第1のセットの触知出力パターン(例えば、「フルタップ」の触知出力パターン)はそれぞれ、2つの完全サイクルがある発振(例えば、中立位置で開始及び終了し、中立位置を3回交差する発振)を含む波形を有する。図4Gに示す第2のセットの触知出力パターン(例えば、「ミニタップ」の触知出力パターン)はそれぞれ、1つの完全サイクルがある発振(例えば、中立位置で開始及び終了し、中立位置を1回交差する発振)を含む波形を有する。図4Hに示す第3のセットの触知出力パターン(例えば、「マイクロタップ」の触知出力パターン)はそれぞれ、完全サイクルの2分の1を含む発振(例えば、中立位置で開始及び終了し、中立位置と交差しない発振)を含む波形を有する。触知出力パターンの波形はまた、触知出力の開始及び終了において可動質量の段階的な高速化及び減速を表すスタートバッファ及びエンドバッファを含む。図4F~4Kに表示される例示波形は、可動質量の移動の最大及び最小限の範囲を表すxmin及びxmax値を含む。より大きい可動質量を有するより大きな電子デバイスに対して、質量の移動のより大きいかより小さい最小限及び最大範囲があり得る。図4F~4Kに示す例は1次元における質量の移動を記載しているが、しかしながら、同様の原則が、二次元又は三次元の可動質量の移動にも当てはまる。 4F-4K show tactile output patterns with specific waveforms. The waveform of the tactile output pattern represents a pattern of physical displacement relative to a neutral position (eg, xzero) with respect to the time it takes for the moving mass to pass and generate a tactile output with that tactile output pattern. For example, the first set of tactile output patterns shown in FIG. 4F (eg, “full tap” tactile output patterns) each have two complete cycles of oscillation (eg, start and end at the neutral position, and the neutral position). It has a waveform including oscillation) that intersects three times. The second set of tactile output patterns shown in FIG. 4G (eg, "mini-tap" tactile output patterns) each have one complete cycle of oscillation (eg, start and end at the neutral position and 1 neutral position). It has a waveform that includes (oscillation that intersects times). The third set of tactile output patterns shown in FIG. 4H (eg, "microtap" tactile output patterns) each start and end at an oscillation (eg, in a neutral position) containing half of the full cycle. It has a waveform including oscillation) that does not intersect the neutral position. The waveform of the tactile output pattern also includes a start buffer and an end buffer that represent the stepwise increase and decrease of the movable mass at the start and end of the tactile output. The exemplary waveforms displayed in FIGS. 4F-4K include xmin and xmax values that represent the maximum and minimum range of movement of the movable mass. For larger electronic devices with larger moving mass, there can be a larger or smaller minimum and maximum range of mass transfer. The examples shown in FIGS. 4F-4K describe the movement of mass in one dimension, however, similar principles apply to the movement of moving mass in two or three dimensions.

図4F~4Kに示すように、各触知出力パターンはまた、その特性周波数を有する触知出力からユーザーによって感じられる触覚感覚の「ピッチ」に影響を及ぼす、対応する特性周波数を有する。連続触知出力に対して、特性周波数は、触知出力生成器の可動質量によって所与の時間周期の間に完了するサイクル(例えば、秒当たりのサイクル)の数を表す。不連続の触知出力に対しては、不連続の出力信号が(例えば、0.5、1又は2サイクルで)発生し、そして特性周波数値は、可動質量がその特性周波数を有する触知出力を生成するためにどれくらい急速に移動することを必要とするかについて、条件付ける。図4F~4Hに示すように、各タイプの触知出力(例えば、それぞれの波形(例えば、フルタップ、ミニタップ又はマイクロタップなどのそれぞれの波形により定義される)に対して、より高い周波数値は、可動質量によるより速い移動に対応し、したがって、一般に、触知出力を完了するためのより短い時間(例えば、不連続の触知出力のためのサイクルの所要数を完了する時間を含め、スタート及びエンドバッファ時間を加えたもの)に対応する。例えば、80Hzの特性周波数を有するフルタップは、100Hzの特性周波数を有するフルタップよりも完了するのにより長くかかる(例えば、図4Fの35.4ms対28.3ms)。加えて、所与の周波数に対して、それぞれの周波数でより多くのサイクルをその波形に有する触知出力は、同じそれぞれの周波数でより少ないサイクルをその波形に有する触知出力よりも、完了するのにより長くかかる。例えば、150Hzのフルタップは150Hzのミニタップより完了するのにより長くかかり(例えば、19.4ms対12.8ms)、そして、150Hzのミニタップは150Hzのマイクロタップより完了するのにより長くかかる(例えば、12.8ms対9.4ms)。しかしながら、異なる周波数を有する触知出力パターンに対しては、この規則は、あてはめることができない(例えば、より多いサイクルだがより高い周波数を有する触知出力は、より少ないサイクルだがより低い周波数を有する触知出力よりも完了する時間が短くなり得て、そして、逆もまたそうである)。例えば、300Hzで、フルタップは、ミニタップと同じほどかかる(例えば、9.9ms)。 As shown in FIGS. 4F-4K, each tactile output pattern also has a corresponding characteristic frequency that affects the "pitch" of the tactile sensation felt by the user from the tactile output having that characteristic frequency. For continuous tactile outputs, the characteristic frequency represents the number of cycles (eg, cycles per second) completed during a given time cycle by the moving mass of the tactile output generator. For a discontinuous tactile output, a discontinuous output signal is generated (eg, in 0.5, 1 or 2 cycles), and the characteristic frequency value is the tactile output whose movable mass has that characteristic frequency. Condition how quickly you need to move to generate. As shown in FIGS. 4F-4H, for each type of tactile output (eg, defined by each waveform (eg, defined by each waveform such as full tap, mini tap or micro tap), higher frequency values are. Corresponds to faster movements due to moving mass, and therefore generally shorter time to complete tactile output (eg, including time to complete the required number of cycles for discontinuous tactile output). For example, a full tap with a characteristic frequency of 80 Hz takes longer to complete than a full tap with a characteristic frequency of 100 Hz (eg, 35.4 ms vs. 28. In Figure 4F). 3ms). In addition, for a given frequency, a tactile output having more cycles in its waveform at each frequency is more than a tactile output having less cycles in its waveform at the same each frequency. For example, a 150 Hz full tap takes longer to complete than a 150 Hz mini tap (eg, 19.4 ms vs. 12.8 ms), and a 150 Hz mini tap completes more than a 150 Hz micro tap. It takes longer (eg, 12.8 ms vs. 9.4 ms), however, for tactile output patterns with different frequencies, this rule cannot be applied (eg, with more cycles but higher frequencies). Tactile outputs can take less time to complete than tactile outputs with fewer cycles but lower frequencies, and vice versa). For example, at 300 Hz, a full tap is as much as a mini tap. Such (eg, 9.9 ms).

図4F~4Kに示すように、触知出力パターンはまた、触覚の信号に含まれるエネルギー量に影響を及ぼす特性振幅、すなわち、その特性振幅を有する触知出力によるユーザーによって感じられることができる触覚感覚の「強さ」を有する。いくつかの実施形態では、触知出力パターンの特性振幅は、触知出力を生成するときに、中立位置からの可動質量の最大の変位を表す絶対値又は正規化値に関連する。いくつかの実施形態では、触知出力パターンの特性振幅は、各種の条件(例えば、ユーザーインターフェース前後関係及び挙動に基づいてカスタマイズされる)及び/又は予め設定された測定基準(例えば、入力ベースの測定基準及び/又はユーザーインターフェースベースの測定基準)にしたがって、例えば、固定であるか動的に決定されたゲイン係数(例えば、0と1間の値)によって調節可能である。いくつかの実施形態では、入力ベースの測定基準(例えば、強度変化測定基準又は入力速度測定基準)は、入力(例えば、押圧入力の接触の特性強度の変化率又はタッチ感知面全体の接触の移動の率)の特性を、触知出力の生成をトリガする入力の間、測定する。いくつかの実施形態では、触知出力の生成をトリガするユーザーインターフェース変化の間、ユーザーインターフェースベースの測定基準(例えば、境界全体速度測定基準)は、ユーザーインターフェース要素(例えば、ユーザーインターフェースの、隠れているか可視の境界全体の要素の移動の速度)の特性を測定する。いくつかの実施形態では、触知出力パターンの特性振幅は「エンベロープ」によって調整することができ、隣接するサイクルのピークは異なる振幅を有することができて、ここで、上記の波形の1つは、時間につれて変化するエンベロープパラメータ(例えば、0から1まで)による乗算によって更に修正され、触知出力が発生しているのにつれて、時間とともに段階的に触知出力の部分の振幅を調整する。 As shown in FIGS. 4F-4K, the tactile output pattern is also a characteristic amplitude that affects the amount of energy contained in the tactile signal, i.e., a tactile sensation that can be felt by the user due to the tactile output having that characteristic amplitude. Has the "strength" of the senses. In some embodiments, the characteristic amplitude of the tactile output pattern is associated with an absolute or normalized value that represents the maximum displacement of the movable mass from the neutral position when generating the tactile output. In some embodiments, the characteristic amplitude of the tactile output pattern is various conditions (eg, customized based on user interface context and behavior) and / or preset metrics (eg, input-based). It can be adjusted according to metric and / or user interface based metric), for example, by a fixed or dynamically determined gain coefficient (eg, a value between 0 and 1). In some embodiments, the input-based metric (eg, intensity change metric or input velocity metric) is the input (eg, the rate of change in the characteristic strength of the contact of the pressing input or the movement of the contact across the touch-sensitive surface. The rate of) is measured during the input that triggers the generation of the tactile output. In some embodiments, during user interface changes that trigger the generation of tactile outputs, user interface-based metrics (eg, global overall velocity metrics) are hidden in user interface elements (eg, user interfaces). Measure the characteristics of the speed of movement of the elements across the visible boundary. In some embodiments, the characteristic amplitude of the tactile output pattern can be adjusted by an "envelope" and the peaks of adjacent cycles can have different amplitudes, where one of the above waveforms is Further modified by multiplication with an envelope parameter (eg, 0 to 1) that changes over time, the amplitude of the portion of the tactile output is adjusted stepwise over time as the tactile output is occurring.

特性周波数、振幅及び波形だけが、説明の便宜上図4F~4Kのサンプル触知出力パターンで表されているが、他の周波数、振幅及び波形を有する触知出力パターンも類似の目的のために用いることができる。例えば、0.5~4サイクルの間の波形を用いることができる。60Hz~400Hzの範囲の他の周波数も同様に用いることができる。
ユーザーインターフェース及び関連するプロセス
Only characteristic frequencies, amplitudes and waveforms are represented in the sample tactile output patterns of FIGS. 4F-4K for convenience of explanation, but tactile output patterns with other frequencies, amplitudes and waveforms are also used for similar purposes. be able to. For example, waveforms between 0.5 and 4 cycles can be used. Other frequencies in the range of 60 Hz to 400 Hz can be used as well.
User interface and related processes

ここで、ディスプレイとタッチ感知面と、(任意選択的に)触知出力を生成するための1つ以上の触知出力生成器と、(任意選択的に)タッチ感知面との接触の強度を検出するための1つ以上のセンサとを備える、ポータブル多機能デバイス100又はデバイス300などの電子デバイス上で実装され得る、ユーザーインターフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。 Here, the strength of contact between the display and the touch-sensitive surface, one or more tactile output generators for (arbitrarily) generating tactile output, and (arbitrarily) the touch-sensitive surface. Attention is paid to embodiments of user interfaces (“UI”) and related processes that can be implemented on electronic devices such as portable multifunction devices 100 or devices 300, comprising one or more sensors for detection.

図5A~5ATは、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える間に、仮想オブジェクトの表現を表示するための、いくつかの実施形態による、例示ユーザーインターフェースを図示する。これらの図のユーザーインターフェースは、図8A~8E、9A~9D、10A~10D、16A~16G、17A~17D、18A~18I、19A~19H及び20A~20Fのプロセスを含む、以下に説明するプロセスを図示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して述べられる。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する表現的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に表示されるユーザーインターフェースを表示する間に、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 5A-5AT are exemplary by some embodiments for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. Illustrate the user interface. The user interface of these figures comprises the processes of FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H and 20A-20F, described below. Is used to illustrate. For convenience of description, some of the embodiments are described with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the expressive point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact. Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional and is separate from the display 450 depending on the detection of contact on the touch sensitive surface 451 while displaying the user interface shown in the figure on the display 450 with the focus selector. It is performed on the device having the touch sensing surface 451 of.

図5Aは、図5B~5ATに関して記載されているユーザーインターフェースが用いられる現実の前後関係を図示する。 FIG. 5A illustrates the actual context in which the user interfaces described for FIGS. 5B-5AT are used.

図5Aは、テーブル5004が位置する物理スペース5002を図示する。デバイス100は、ユーザーによってユーザーの手5006に保持される。 FIG. 5A illustrates the physical space 5002 in which the table 5004 is located. The device 100 is held by the user in the user's hand 5006.

図5Bは、ディスプレイ112上に表示されたメッセージ送信ユーザーインターフェース5008を図示する。メッセージ送信ユーザーインターフェース5008は、受信したテキストメッセージ5012を含むメッセージバブル5010、送信したテキストメッセージ5016を含むメッセージバブル5014、メッセージにおいて受信した仮想オブジェクト(例えば、仮想椅子5020)を含むメッセージバブル5018及び仮想椅子5020が拡張現実視において(例えば、デバイス100の1つ以上のカメラの視野の表現の範囲内で)見えるオブジェクトであることを示す仮想オブジェクトインジケータ5022を含む。メッセージ送信ユーザーインターフェース5008は、メッセージ入力を表示するように構成されるメッセージ入力領域5024も含む。 FIG. 5B illustrates a message transmission user interface 5008 displayed on the display 112. The message sending user interface 5008 includes a message bubble 5010 containing the received text message 5012, a message bubble 5014 containing the transmitted text message 5016, a message bubble 5018 containing a virtual object received in the message (eg, a virtual chair 5020), and a virtual chair. Includes a virtual object indicator 5022 indicating that the 5020 is an object visible in augmented reality (eg, within the field representation of one or more cameras on the device 100). The message sending user interface 5008 also includes a message input area 5024 configured to display the message input.

図5C~5Gは、メッセージ送信ユーザーインターフェース5008の一部をデバイス100の1つ以上のカメラの視野により置き換えさせる入力を、図示する。図5Cにおいて、デバイス100のタッチスクリーン112との接触5026が検出される。接触の特性強度は、強度レベルメータ5028で示すように、接触検出強度閾値ITを上回り、かつ、ヒント押圧強度閾値ITを下回る。図5Dにおいて、強度レベルメータ5028で示すように、ヒント押圧強度閾値ITを上回る接触5026の特性強度の増加によって、メッセージバブル5018の領域が増大し、仮想椅子5020のサイズが増大し、そしてメッセージ送信ユーザーインターフェース5008がメッセージバブル5018の後方でぼやけ始めている(例えば、接触の特性強度を増加させる効果の視覚フィードバックをユーザーに提供するために)。図5Eにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触5026の特性強度の増加によって、メッセージバブル5018がプラッタ5030に置き換えられ、仮想椅子5020のサイズが更に増大し、そしてプラッタ5030の後方のメッセージ送信ユーザーインターフェース5008のぼやけを増加させている。図5Fにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触5026の特性強度の増加によって、デバイス100の触知出力生成器167に触知出力を(5032で図示されるように)出力させ、メッセージ送信ユーザーインターフェース5008の一部をデバイス100の1つ以上のカメラの視野に置き換えるための基準が満たされたことを示す。 5C-5G illustrate inputs that cause a portion of the message transmission user interface 5008 to be replaced by the field of view of one or more cameras on the device 100. In FIG. 5C, contact 5026 of the device 100 with the touch screen 112 is detected. The characteristic strength of the contact is higher than the contact detection strength threshold IT 0 and lower than the hint pressing strength threshold IT H , as shown by the strength level meter 5028. In FIG. 5D, as shown by the intensity level meter 5028, an increase in the characteristic intensity of the contact 5026 above the hint pressing intensity threshold ITH increases the area of the message bubble 5018, increases the size of the virtual chair 5020, and the message. The sending user interface 5008 is beginning to blur behind the message bubble 5018 (eg, to provide the user with visual feedback of the effect of increasing the characteristic strength of the contact). In FIG. 5E, as shown by the intensity level meter 5028, the increased characteristic intensity of the contact 5026 above the light pressing intensity threshold ITL replaces the message bubble 5018 with the platter 5030, further increasing the size of the virtual chair 5020. And it increases the blurring of the message sending user interface 5008 behind the platter 5030. In FIG. 5F, as shown by the intensity level meter 5028, the tactile output to the tactile output generator 167 of device 100 (illustrated in 5032) by increasing the characteristic intensity of the contact 5026 above the deep pressing intensity threshold IT D. To indicate that the criteria for replacing part of the message sending user interface 5008 with the field of view of one or more cameras of device 100 have been met.

いくつかの実施形態では、接触5026の特性強度が深い押圧強度閾値ITに到達する前に、図5Fで図示するように、図5C~5Eに図示される進行は可逆である。例えば、図5D及び/又は5Eに図示される増加の後に接触5026の特性強度を低下させることは、接触5026の減少した強度レベルに対応するインターフェース状態が表示されるようにする(例えば、図5Eで示すインターフェースは接触の減少した特性強度が軽い押圧強度閾値ITを上回るという判定にしたがって示され、図5Dで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを上回るという判定にしたがって示され、そして、図5Cで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを下回るという判定にしたがって示される)。いくつかの実施形態では、図5D及び/又は5Eに図示される増加の後に接触5026の特性強度を低下させることにより、図5Cで示すインターフェースが再表示させられる。 In some embodiments, the progressions illustrated in FIGS. 5C-5E are reversible, as illustrated in FIG. 5F, before the characteristic strength of the contact 5026 reaches the deep pressing strength threshold IT D. For example, reducing the characteristic strength of the contact 5026 after the increase illustrated in FIGS. 5D and / or 5E causes the interface state corresponding to the reduced strength level of the contact 5026 to be displayed (eg, FIG. 5E). The interface shown in FIG. 5D is shown according to the determination that the reduced contact characteristic strength exceeds the light pressing strength threshold IT L , and the interface shown in FIG. 5D is determined to exceed the hint pressing strength threshold IT H in the interface shown in FIG. 5D. Therefore, the interface shown in FIG. 5C is shown according to the determination that the reduced characteristic strength of the contact is below the hint pressing strength threshold ITH ). In some embodiments, the interface shown in FIG. 5C is redisplayed by reducing the characteristic strength of the contact 5026 after the increase illustrated in FIGS. 5D and / or 5E.

図5F~5Jは、メッセージ送信ユーザーインターフェースの一部がデバイス100の1つ以上のカメラ(以下「カメラ」)の視野と置き換えられるアニメーション化された遷移を図示する。図5Fから図5Gまでに、接触5026はタッチスクリーン112からリフトオフし、そして、仮想椅子5020は図5Iのその最終位置の方へ回転した。図5Gにおいて、カメラの視野5034は、プラッタ5030の図へとフェードインし始めた(点線によって示されるように)。図5Hにおいて、カメラの視野5034(例えば、カメラによって取り込まれる物理スペース5002のビューを示す)は、プラッタ5030の図に、フェードインを完了した。図5Hから図5Iまでに、仮想椅子5020は、図5Iのその最終位置の方へ、その回転を続けた。図5Iにおいて、触知出力生成器167は、触知出力を(5036で図示されるように)出力して、少なくとも1つのプレーン(例えば、床面5038)がカメラの視野5034において検出されたことを示した。仮想椅子5020は、検出されたプレーンに(例えば、仮想オブジェクトが検出水平面(例えば床面5038)上の直立した向きに置かれるように構成されるというデバイス100による決定にしたがって)配置される。仮想椅子5020のサイズは、メッセージ送信ユーザーインターフェースの一部がディスプレイ112上のカメラの視野5034の表現に変わるにつれて、ディスプレイ112で連続的に調整される。例えば、カメラの視野5034に示す物理スペース5002に対する仮想椅子5020の縮尺は、仮想椅子5020の所定の「実世界」サイズ及び/又はカメラの視野5034のオブジェクト(例えばテーブル5004)の検出サイズに基づいて、決定される。図5Jにおいて、仮想椅子5020は、カメラの視野5034の検出床面に対する所定の向きを有するその最終位置で示される。いくつかの実施形態では、仮想椅子5020の最初のランディング位置は、カメラの視野の検出されたプレーンに対して所定の位置、例えば検出されたプレーンの空き領域の中央)である。いくつかの実施形態では、接触5026のランディング位置は、接触5026のリフトオフ位置にしたがって決定される(例えば、接触5026の最初のリフトオフ位置は、拡張現実環境に遷移するための基準が図5Fにおいて満たされた後、タッチスクリーン112全体の接触5026の移動により接触5026の最初のタッチダウン位置と異なってもよい)。 5F-5J illustrate animated transitions in which part of the message sending user interface is replaced with the field of view of one or more cameras (hereinafter "cameras") of device 100. From FIG. 5F to FIG. 5G, the contact 5026 lifted off from the touch screen 112 and the virtual chair 5020 rotated towards its final position in FIG. 5I. In FIG. 5G, the camera field of view 5034 began to fade into the figure of platter 5030 (as indicated by the dotted line). In FIG. 5H, the camera field of view 5034 (eg, showing a view of the physical space 5002 captured by the camera) has completed the fade-in to the figure of platter 5030. From FIG. 5H to FIG. 5I, the virtual chair 5020 continued its rotation towards its final position in FIG. 5I. In FIG. 5I, the tactile output generator 167 outputs a tactile output (as illustrated in 5036) so that at least one plane (eg, floor surface 5038) is detected in the camera's field of view 5034. showed that. The virtual chair 5020 is placed on the detected plane (eg, according to the device 100's determination that the virtual object is configured to be placed in an upright orientation on the detected horizontal plane (eg, floor 5038)). The size of the virtual chair 5020 is continuously adjusted on the display 112 as part of the message sending user interface changes to the representation of the camera's field of view 5034 on the display 112. For example, the scale of the virtual chair 5020 with respect to the physical space 5002 shown in the camera field of view 5034 is based on the predetermined "real world" size of the virtual chair 5020 and / or the detection size of an object (eg, table 5004) in the camera field of view 5034. ,It is determined. In FIG. 5J, the virtual chair 5020 is shown at its final position with a predetermined orientation of the camera's field of view 5034 with respect to the detection floor. In some embodiments, the first landing position of the virtual chair 5020 is a predetermined position relative to the detected plane in the field of view of the camera, eg, the center of an empty area of the detected plane). In some embodiments, the landing position of the contact 5026 is determined according to the lift-off position of the contact 5026 (eg, the first lift-off position of the contact 5026 meets the criteria for transitioning to the augmented reality environment in FIG. 5F. After that, the movement of the contact 5026 across the touch screen 112 may differ from the initial touchdown position of the contact 5026).

図5K~5Lは、カメラの視野5034を調整するデバイス100の移動(例えば、ユーザーの手5006による)を図示する。デバイス100が物理スペース5002に対して移動されるにつれて、カメラの表示された視野5034は変化し、そして、仮想椅子5020はカメラの表示された視野5034の床面5038に対して同じ位置及び向きで付着したままである。 5K-5L illustrate the movement of the device 100 (eg, by the user's hand 5006) adjusting the field of view 5034 of the camera. As the device 100 is moved relative to the physical space 5002, the camera's displayed field of view 5034 changes, and the virtual chair 5020 is in the same position and orientation with respect to the floor surface 5038 of the camera's displayed field of view 5034. It remains attached.

図5M~5Qは、カメラの表示された視野5034の床面5038にわたる仮想椅子5020の移動を生じさせる入力を図示する。図5Nにおいて、デバイス100のタッチスクリーン112との接触5040は、仮想椅子5020に対応する位置で検出される。図5N~5Oにおいて、接触5040が矢印5042によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5040によってドラッグされる。仮想椅子5020が接触5040によって移動されるにつれて、カメラの視野5034に示すように仮想椅子5020のサイズは変化して、物理スペース5002に対する仮想椅子5020の縮尺を維持する。例えば、図5N~5Pで、仮想椅子5020がカメラの視野5034の前景から、カメラの視野5034においてデバイス100からはより遠くてテーブル5004にはより近い位置へ移動するにつれて、仮想椅子5020のサイズは減少する(例えば、それによって、カメラの視野5034のテーブル5004に対する椅子の縮尺は維持される)。加えて、仮想椅子5020が接触5040によって移動されるにつれて、カメラの視野5034において識別されるプレーンは強調される。例えば、図5Oにおいて床平面5038が強調される。図5O~5Pにおいて、接触5040が矢印5044によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5040によってドラッグされ続ける。図5Qにおいて、接触5040は、タッチスクリーン112からリフトオフしている。いくつかの実施形態では、図5N~5Qに示すように、あたかも仮想椅子5020が接触5040によって床面5038にわたってドラッグされるかのように、仮想椅子5020の移動パスはカメラの視野5034の床面5038によって拘束される。いくつかの実施形態では、図5N~5Pに関して記載されている接触5040は、図5C~5Fに関して記載されている接触5026の継続である(例えば、接触5026のリフトオフは無く、メッセージ送信ユーザーインターフェース5008の一部がカメラの視野5034によって置き換られるようにさせるのと同じ接触はまた、カメラの視野5034の仮想椅子5020をドラッグする)。 5M-5Q illustrate the inputs that result in the movement of the virtual chair 5020 across the floor surface 5038 of the displayed field of view 5034 of the camera. In FIG. 5N, the contact 5040 of the device 100 with the touch screen 112 is detected at the position corresponding to the virtual chair 5020. In FIGS. 5N-5O, the virtual chair 5020 is dragged by the contact 5040 as the contact 5040 moves along the path indicated by the arrow 5042. As the virtual chair 5020 is moved by the contact 5040, the size of the virtual chair 5020 changes as shown in the field of view 5034 of the camera to maintain the scale of the virtual chair 5020 with respect to the physical space 5002. For example, in FIGS. 5N-5P, as the virtual chair 5020 moves from the foreground of the camera field of view 5034 to a position in the camera field of view 5034 farther from the device 100 and closer to the table 5004, the size of the virtual chair 5020 increases. Decreases (eg, thereby maintaining the scale of the chair relative to the table 5004 in the camera's field of view 5034). In addition, as the virtual chair 5020 is moved by contact 5040, the plane identified in the camera's field of view 5034 is emphasized. For example, in FIG. 5O, the floor plane 5038 is emphasized. In FIGS. 5O-5P, the virtual chair 5020 continues to be dragged by the contact 5040 as the contact 5040 moves along the path indicated by the arrow 5044. In FIG. 5Q, the contact 5040 is lifted off from the touch screen 112. In some embodiments, as shown in FIGS. 5N-5Q, the movement path of the virtual chair 5020 is the floor surface of the camera's field of view 5034, as if the virtual chair 5020 was dragged over the floor surface 5038 by the contact 5040. Restrained by 5038. In some embodiments, the contact 5040 described for FIGS. 5N-5P is a continuation of the contact 5026 described for FIGS. 5C-5F (eg, there is no lift-off of the contact 5026 and the message transmitting user interface 5008). The same contact that causes a portion of the camera to be replaced by the camera's field of view 5034 also drags the virtual chair 5020 of the camera's field of view 5034).

図5Q~5Uは、床面5038からカメラの視野5034において検出される異なるプレーン(例えば、テーブル面5046)への、仮想椅子5020の移動を引き起こす入力を図示する。図5Rにおいて、デバイス100のタッチスクリーン112との接触5050は、仮想椅子5020に対応する位置で検出される。図5R~5Sにおいて、接触5048が矢印5050によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5048によってドラッグされる。仮想椅子5020が接触5048によって移動されるにつれて、仮想椅子5020のサイズが変化してカメラの視野5034に示すように物理スペース5002に対する仮想椅子5020の縮尺を維持する。加えて、仮想椅子5020が接触5040によって移動されるにつれて、テーブル基準面5046は強調される(例えば、図5Sに示すように)。図5S~5Tにおいて、接触5048が矢印5052によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5040によってドラッグされ続ける。図5Uにおいて、接触5048はタッチスクリーン112からリフトオフしており、そして、仮想椅子5020は前と同じ方向に向かっている直立した向きのテーブル基準面5046に配置される。 5Q-5U illustrate the inputs that cause the virtual chair 5020 to move from the floor surface 5038 to a different plane (eg, table surface 5046) detected in the field of view 5034 of the camera. In FIG. 5R, the contact 5050 of the device 100 with the touch screen 112 is detected at a position corresponding to the virtual chair 5020. In FIGS. 5R-5S, the virtual chair 5020 is dragged by the contact 5048 as the contact 5048 moves along the path indicated by the arrow 5050. As the virtual chair 5020 is moved by the contact 5048, the size of the virtual chair 5020 changes to maintain the scale of the virtual chair 5020 with respect to the physical space 5002 as shown in the camera field of view 5034. In addition, as the virtual chair 5020 is moved by the contact 5040, the table reference plane 5046 is emphasized (eg, as shown in FIG. 5S). In FIGS. 5S-5T, the virtual chair 5020 continues to be dragged by the contact 5040 as the contact 5048 moves along the path indicated by the arrow 5052. In FIG. 5U, the contact 5048 is lifted off from the touch screen 112, and the virtual chair 5020 is placed on an upright table reference plane 5046 pointing in the same direction as before.

図5U~5ADはタッチスクリーンディスプレイ112の端に仮想椅子5020をドラッグする入力を図示し、これによりカメラの視野5034が表示されないようにする。図5Vにおいて、デバイス100のタッチスクリーン112との接触5054は、仮想椅子5020に対応する位置で検出される。図5V~5Wにおいて、接触5054が矢印5056によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5054によってドラッグされる。図5W~5Xにおいて、接触5054が矢印5058によって示されるパスに沿って移動するにつれて、仮想椅子5020は図5Xに表示される位置に接触5054によってドラッグされ続ける。 5U-5AD illustrate the input of dragging the virtual chair 5020 to the edge of the touch screen display 112, thereby hiding the field of view 5034 of the camera. In FIG. 5V, the contact 5054 of the device 100 with the touch screen 112 is detected at the position corresponding to the virtual chair 5020. In FIGS. 5V-5W, the virtual chair 5020 is dragged by the contact 5054 as the contact 5054 moves along the path indicated by the arrow 5056. In FIGS. 5W-5X, as the contact 5054 moves along the path indicated by the arrow 5058, the virtual chair 5020 continues to be dragged by the contact 5054 to the position shown in FIG. 5X.

図5U~5Xに図示される接触5054による入力は、図5Y~5ADに示すように、カメラの視野5034をプラッタ5030に表示することから、カメラの視野5034を表示するのを中止して、メッセージ送信ユーザーインターフェース5008を完全に表示することに戻るという遷移を引き起こす。図5Yにおいて、カメラの視野5034は、プラッタ5030においてフェードアウトを開始する。図5Y~5Zにおいて、プラッタ5030は、メッセージバブル5018に遷移する。図5Zにおいて、カメラの視野5034は、もはや表示されない。図5AAにおいて、メッセージ送信ユーザーインターフェース5008はぼやけなくなり、メッセージバブル5018のサイズはメッセージバブル5018の元のサイズに(例えば、図5Bに示すように)戻る。 Since the input by the contact 5054 shown in FIGS. 5U to 5X displays the field of view 5034 of the camera on the platter 5030 as shown in FIGS. 5Y to 5AD, the display of the field of view 5034 of the camera is stopped and a message is displayed. Causes a transition back to displaying the outbound user interface 5008 completely. In FIG. 5Y, the camera field of view 5034 begins to fade out at the platter 5030. In FIGS. 5Y-5Z, the platter 5030 transitions to the message bubble 5018. In FIG. 5Z, the camera field of view 5034 is no longer displayed. In FIG. 5AA, the message sending user interface 5008 is no longer blurred and the size of the message bubble 5018 reverts to the original size of the message bubble 5018 (eg, as shown in FIG. 5B).

図5AA~5ADは、図5AAの接触5054に対応する位置からメッセージ送信ユーザーインターフェース5008(例えば、図5Bに示すように)の仮想椅子5020の元の位置へ仮想椅子5020が移動するにつれて発生する、仮想椅子5020のアニメーション化された遷移を、図示する。図5ABにおいて、接触5054は、タッチスクリーン112からリフトオフしている。図5AB~5ACにおいて、仮想椅子5020は、段階的にサイズが増加して、図5ADのその最終位置の方へ回転する。 5AA-5AD occur as the virtual chair 5020 moves from the position corresponding to the contact 5054 in FIG. 5AA to the original position of the virtual chair 5020 in the message transmission user interface 5008 (eg, as shown in FIG. 5B). An animated transition of the virtual chair 5020 is illustrated. In FIG. 5AB, the contact 5054 is lifted off from the touch screen 112. In FIGS. 5AB-5AC, the virtual chair 5020 gradually increases in size and rotates towards its final position in FIG. 5AD.

図5B~5ADにおいて、仮想椅子5020は、メッセージ送信ユーザーインターフェース5008の中で、また、カメラの表示された視野5034の中で、実質的に同じ三次元外観を有し、そして仮想椅子5020は、メッセージ送信ユーザーインターフェース5008を表示することからカメラの視野5034を表示することへの遷移の間、及び逆遷移の間、その同じ三次元外観を維持する。いくつかの実施形態では、仮想椅子5020の表現は、アプリケーションユーザーインターフェース(例えば、メッセージ送信ユーザーインターフェース)において、拡張現実環境において(例えば、カメラの示された視野において)とは異なる外観を有する。例えば、仮想椅子5020は任意選択的にアプリケーションユーザーインターフェースにおいて二次元であるかより在来の型にのっとった見え方を有し、その一方で、拡張現実環境では三次元及びより現実的で質感のある見え方を有し、そして、アプリケーションユーザーインターフェースを表示することと拡張現実環境を表示することの間の遷移の間の、仮想椅子5020の中間の外観は、二次元の見え方と仮想椅子5020の三次元の見え方の間の一連の内挿された外観である。 In FIGS. 5B-5AD, the virtual chair 5020 has substantially the same three-dimensional appearance in the message sending user interface 5008 and in the displayed field of view 5034 of the camera, and the virtual chair 5020 is The same three-dimensional appearance is maintained during the transition from displaying the message transmission user interface 5008 to displaying the field of view 5034 of the camera and during the reverse transition. In some embodiments, the representation of the virtual chair 5020 has a different appearance in the application user interface (eg, the message sending user interface) than in the augmented reality environment (eg, in the indicated field of view of the camera). For example, the virtual chair 5020 optionally has a two-dimensional or more conventional-style appearance in the application user interface, while in an augmented reality environment it is three-dimensional and more realistic and textured. The intermediate appearance of the virtual chair 5020, which has a certain appearance and between displaying the application user interface and displaying the augmented reality environment, is a two-dimensional appearance and the virtual chair 5020. A series of interpolated appearances between the three-dimensional appearances of.

図5AEは、インターネットブラウザユーザーインターフェース5060を図示する。インターネットブラウザユーザーインターフェース5060は、ウェブブラウザのためのURL/検索入力を表示するように構成されるURL/検索入力領域5062及びブラウザ制御5064(例えば、バックボタン及びフォワードボタンを含むナビゲーション制御、共有インターフェースを表示するための共有制御、ブックマークインターフェースを表示するためのブックマーク制御及びタブインターフェースを表示するためのタブ制御)を含む。インターネットブラウザユーザーインターフェース5060は、ウェブオブジェクト5066、5068、5070、5072、5074及び5076も含む。いくつかの実施形態では、それぞれのウェブオブジェクトはリンクを含み、それによって、それぞれのウェブオブジェクト上のタップ入力に応答して、ウェブオブジェクトに対応するリンクの張られたインターネット位置がインターネットブラウザユーザーインターフェース5060に(例えば、それぞれのウェブオブジェクトの表示を置き換えて)表示される。ウェブオブジェクト5066、5068及び5072は、仮想オブジェクトインジケータ5078、5080及び5082によってそれぞれ示されるように、三次元仮想オブジェクトの二次元の表現を含む。ウェブオブジェクト5070、5074及び5076は、二次元画像を含む(しかし、仮想オブジェクトインジケータの欠如によって示されるように、ウェブオブジェクト5070、5074及び5076の二次元画像は三次元仮想オブジェクトに対応しない)。ウェブオブジェクト5068に対応する仮想オブジェクトは、ランプオブジェクト5084である。 FIG. 5AE illustrates an internet browser user interface 5060. The internet browser user interface 5060 provides a URL / search input area 5062 and a browser control 5064 (eg, a navigation control, shared interface including a back button and a forward button) configured to display a URL / search input for a web browser. Includes sharing control for display, bookmark control for displaying the bookmark interface, and tab control for displaying the tab interface). The internet browser user interface 5060 also includes web objects 5066, 5068, 5070, 5072, 5074 and 5076. In some embodiments, each web object contains a link, whereby in response to a tap input on each web object, the linked internet location corresponding to the web object is the internet browser user interface 5060. (For example, replacing the display of each web object). Web objects 5066, 5068 and 5072 include a two-dimensional representation of a three-dimensional virtual object, as indicated by the virtual object indicators 5078, 5080 and 5082, respectively. Web objects 5070, 5074 and 5076 include two-dimensional images (although the two-dimensional images of web objects 5070, 5074 and 5076 do not correspond to three-dimensional virtual objects, as indicated by the lack of virtual object indicators). The virtual object corresponding to the web object 5068 is the ramp object 5084.

図5AF~5AHは、インターネットブラウザユーザーインターフェース5060の一部をカメラの視野5034により置き換えさせる入力を、図示する。図5AFにおいて、デバイス100のタッチスクリーン112との接触5086が検出される。接触の特性強度は、強度レベルメータ5028で示すように、接触検出強度閾値ITを上回り、そして、ヒント押圧強度閾値ITを下回る。図5AGにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触5026の特性強度の増加により、カメラの視野5034がウェブオブジェクト5068に表示させられた(例えば、仮想ランプ5084によりオーバレイされた)。図5AHにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触5086の特性強度の増加により、カメラの視野5034が、(例えば、URL/検索入力領域5062及びブラウザ制御5064だけを残して)インターネットブラウザユーザーインターフェース5060のより大きな部分を置き換え、そして、デバイス100の触知出力生成器167は(5088で図示されるように)触知出力を出力して、インターネットブラウザユーザーインターフェース5060の一部をカメラの視野5034に置き換えるための基準が満たされたことを示す。いくつかの実施形態では、図5AF~5AHに関して記載されている入力に応答して、カメラの視野5034は、タッチスクリーンディスプレイ112上のインターネットブラウザユーザーインターフェース506を完全に置き換える。 5AF-5AH illustrate inputs that cause a portion of the Internet browser user interface 5060 to be replaced by a camera field of view 5034. In FIG. 5AF, contact 5086 with the touch screen 112 of the device 100 is detected. The characteristic strength of the contact is above the contact detection strength threshold IT 0 and below the hint pressing strength threshold IT H , as shown by the strength level meter 5028. In FIG. 5AG , as shown by the intensity level meter 5028, the increase in the characteristic intensity of the contact 5026 above the light pressing intensity threshold ITL caused the field of view 5034 of the camera to be displayed on the web object 5068 (eg, by the virtual lamp 5084). Overlaid). In FIG. 5AH, as shown by the intensity level meter 5028, the increase in the characteristic intensity of the contact 5086 above the deep pressing intensity threshold ITD causes the camera field of view 5034 to have only (eg, URL / search input area 5062 and browser control 5064). Replacing a larger portion of the Internet browser user interface 5060 (leaving), and the tactile output generator 167 of device 100 outputs the tactile output (as illustrated in 5088), the Internet browser user interface 5060. Indicates that the criteria for replacing a portion of the image with the camera's field of view 5034 have been met. In some embodiments, the camera field of view 5034 completely replaces the internet browser user interface 506 on the touch screen display 112 in response to the inputs described for FIGS. 5AF-5AH.

図5AI~5AMは、仮想ランプ5084の移動を生じさせる入力を図示する。図5AI~5AJにおいて、接触5086が矢印5090によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5086によってドラッグされる。仮想ランプ5084が接触5086によって移動されるにつれて、仮想ランプ5084のサイズは不変であり、そして、仮想ランプ5084のパスは任意選択的に、カメラの視野において捕えられる物理スペースの構造によって拘束されない。仮想ランプ5084が接触5086によって移動されるにつれて、カメラの視野5034において識別される平面は強調される。例えば、仮想ランプ5084が床平面5038の上を移動するにつれて、床平面5038は図5AJにおいて強調される。図5AJ~5AKにおいて、接触5086が矢印5092によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5086によってドラッグされ続ける。図5AK~5ALにおいて、接触5086が矢印5094によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5086によってドラッグされ続け、床平面5038は強調されなくなり、そして、仮想ランプ5084がテーブル5004の上を移動するにつれて、テーブル面5046が強調される。図5AMにおいて、接触5086は、タッチスクリーン112からリフトオフしている。接触5086がリフトオフしてしまうと、仮想ランプ5086のサイズはカメラの視野5034のテーブル5004に対して正しい縮尺を有するように調整され、そして、仮想ランプ5086はカメラの視野5034のテーブル面5046上の直立した向きに置かれる。 5AI-5AM illustrate the inputs that cause the movement of the virtual lamp 5084. In FIGS. 5AI-5AJ, the virtual lamp 5084 is dragged by the contact 5086 as the contact 5086 moves along the path indicated by the arrow 5090. As the virtual lamp 5084 is moved by the contact 5086, the size of the virtual lamp 5084 is invariant, and the path of the virtual lamp 5084 is optionally not constrained by the structure of the physical space captured in the field of view of the camera. As the virtual lamp 5084 is moved by the contact 5086, the plane identified in the camera field of view 5034 is emphasized. For example, as the virtual lamp 5084 moves over the floor plane 5038, the floor plane 5038 is highlighted in FIG. 5AJ. In FIGS. 5AJ-5AK, the virtual lamp 5084 continues to be dragged by the contact 5086 as the contact 5086 moves along the path indicated by the arrow 5092. In FIGS. 5AK-5AL, as the contact 5086 moves along the path indicated by the arrow 5094, the virtual lamp 5084 continues to be dragged by the contact 5086, the floor plane 5038 is no longer highlighted, and the virtual lamp 5084 is on the table 5004. As you move up, the table surface 5046 is emphasized. In FIG. 5AM, the contact 5086 is lifted off from the touch screen 112. Once the contact 5086 is lifted off, the size of the virtual lamp 5086 is adjusted to have the correct scale with respect to the table 5004 of the camera field of view 5034, and the virtual lamp 5086 is on the table surface 5046 of the camera field of view 5034. Placed in an upright orientation.

図5AM~5AQはタッチスクリーンディスプレイ112の端に仮想ランプ5084をドラッグする入力を図示し、これによりカメラの視野5034が表示されないようにし、インターネットブラウザユーザーインターフェース5060を復活させる。図5ANにおいて、デバイス100のタッチスクリーン112との接触5096は、仮想ランプ5084に対応する位置で検出される。図5AN~5AOにおいて、接触5096が矢印5098によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5096によってドラッグされる。図5AO~5APにおいて、接触5054が矢印5100によって示されるパスに沿って移動するにつれて、仮想ランプ5084は図5APに表示される位置に接触5096によってドラッグされ続ける。図5AQにおいて、接触5096は、タッチスクリーン112からリフトオフしている。 5 AM-5AQ illustrate the input of dragging the virtual lamp 5084 to the edge of the touch screen display 112, which hides the camera's field of view 5034 and restores the internet browser user interface 5060. In FIG. 5AN, the contact 5096 of the device 100 with the touch screen 112 is detected at the position corresponding to the virtual lamp 5084. In FIGS. 5AN-5AO, the virtual lamp 5084 is dragged by the contact 5096 as the contact 5096 moves along the path indicated by the arrow 5098. In FIGS. 5AO-5AP, as the contact 5054 moves along the path indicated by the arrow 5100, the virtual lamp 5084 continues to be dragged by the contact 5096 to the position shown in FIG. 5AP. In FIG. 5AQ, the contact 5096 is lifted off from the touch screen 112.

図5AM~5APに図示される接触5096による入力は、図5AQ~5ATに示すように、カメラの視野5034を表示することから、カメラの視野5034を表示するのを中止して、インターネットブラウザユーザーインターフェース5060を完全に表示することに戻るという遷移を引き起こす。図5ARにおいて、カメラの視野5034は(点線によって示されるように)フェードアウトし始める。図5AR~5ATにおいて、仮想ランプ5084は、サイズが増加して、インターネットブラウザユーザーインターフェース5060のその元の位置の方へ移動する。図5ASにおいて、カメラの視野5034はもはや表示されず、インターネットブラウザユーザーインターフェース5060は(点線によって示されるように)フェードインし始める。図5ATにおいて、インターネットブラウザユーザーインターフェース5060は完全に表示され、そして、仮想ランプ5084はインターネットブラウザユーザーインターフェース5060内でその元のサイズ及び位置に戻っている。 Since the input by the contact 5096 shown in FIGS. 5AM to 5AP displays the field of view 5034 of the camera as shown in FIGS. 5AQ to 5AT, the display of the field of view 5034 of the camera is stopped and the Internet browser user interface is displayed. Causes a transition back to displaying 5060 completely. In FIG. 5AR, the camera field of view 5034 begins to fade out (as indicated by the dotted line). In FIGS. 5AR-5AT, the virtual lamp 5084 increases in size and moves towards its original position in the Internet browser user interface 5060. In FIG. 5AS, the camera field of view 5034 is no longer displayed and the internet browser user interface 5060 begins to fade in (as indicated by the dotted line). In FIG. 5AT, the internet browser user interface 5060 is fully displayed and the virtual lamp 5084 has returned to its original size and position within the internet browser user interface 5060.

図6A~6AJは、いくつかの実施形態にしたがって、第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現、第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現及び1つ以上のカメラの視野の表現を有する仮想オブジェクトの第3の表現を表示するための例示ユーザーインターフェースを図示する。これらの図におけるユーザーインターフェースは、図8A~8E、9A~9D、10A~10D、16A~16G、17A~17D、18A~18I、19A~19H及び20A~20Fにおけるプロセスを含む、以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する表現的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に表示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 6A-6AJ show a first representation of a virtual object in a first user interface area, a second representation of a virtual object in a second user interface area, and one or more cameras, according to some embodiments. Illustrated an exemplary user interface for displaying a third representation of a virtual object with a representation of the field of view. The user interfaces in these figures include the processes in FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H and 20A-20F, the processes described below. Is used to illustrate. For convenience of illustration, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the expressive point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact. Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional, with the focus selector, while displaying the user interface shown in the figure on the display 450, depending on the detection of contact on the touch sensitive surface 451 with the display 450 and separately. It is performed on a device having a touch sensing surface 451.

図6Aは、受信したテキストメッセージ5012を含むメッセージバブル5010、送信したテキストメッセージ5016を含むメッセージバブル5014、メッセージにおいて受信した仮想オブジェクト(例えば、仮想椅子5020)を含むメッセージバブル5018及び仮想椅子5020が拡張現実視において(例えば、デバイス100の1つ以上の表示されたカメラの視野の範囲内で)見えるオブジェクトであることを示す仮想オブジェクトインジケータ5022を含む、メッセージ送信ユーザーインターフェース5008を図示する。メッセージ送信ユーザーインターフェース5008は、図5Bに関して更に詳細に記載される。 FIG. 6A is an augmented message bubble 5010 containing a received text message 5012, a message bubble 5014 containing a transmitted text message 5016, a message bubble 5018 containing a virtual object received in a message (eg, a virtual chair 5020), and a virtual chair 5020. Illustrates a message sending user interface 5008, including a virtual object indicator 5022 indicating that the object is visible in reality (eg, within the field of view of one or more displayed cameras on device 100). The message sending user interface 5008 is described in more detail with respect to FIG. 5B.

図6B~6Cは、仮想椅子5020の回転を生じさせる入力を図示する。図6Bにおいて、デバイス100のタッチスクリーン112との接触6002が検出される。接触6002は、矢印6004によって示されるパスに沿って、タッチスクリーン112にわたって移動する。図6Cにおいて、接触の移動に応答して、メッセージ送信ユーザーインターフェース5008は上方へスクロールされて(メッセージバブル5010をディスプレイからスクロールオフさせ、メッセージバブル5014及び5018を上方へスクロールさせ、付加的なメッセージバブル6005を現し)、そして、仮想椅子5020は回転する(例えば、上方へ傾けられる)。仮想椅子5020の回転の大きさ及び方向は、矢印6004によって示されるパスに沿った接触6002の移動に対応する。図6Dにおいて、接触6002は、タッチスクリーン112からリフトオフしている。いくつかの実施形態では、メッセージバブル5018内の仮想椅子5020のこの回転の挙動が、仮想椅子5020がデバイス100のカメラの視野を含む拡張現実環境において見える仮想オブジェクトであるという徴候として、使われる。 6B-6C illustrate the inputs that give rise to the rotation of the virtual chair 5020. In FIG. 6B, contact 6002 with the touch screen 112 of the device 100 is detected. Contact 6002 travels across the touch screen 112 along the path indicated by arrow 6004. In FIG. 6C, in response to the movement of the contact, the message sending user interface 5008 is scrolled upwards (the message bubble 5010 is scrolled off the display, the message bubbles 5014 and 5018 are scrolled upwards, and an additional message bubble. (Reveals 6005), and the virtual chair 5020 rotates (eg, tilts upwards). The magnitude and direction of rotation of the virtual chair 5020 corresponds to the movement of contact 6002 along the path indicated by arrow 6004. In FIG. 6D, the contact 6002 is lifted off from the touch screen 112. In some embodiments, this rotational behavior of the virtual chair 5020 within the message bubble 5018 is used as a symptom that the virtual chair 5020 is a virtual object visible in an augmented reality environment that includes the field of view of the camera of device 100.

図6E~6Lは、メッセージ送信ユーザーインターフェース5008をステージングユーザーインターフェース6010により置き換えさせ、そして仮想椅子5020の向きをその後変える入力を、図示する。図6Eにおいて、デバイス100のタッチスクリーン112との接触6006が検出される。強度レベルメータ5028で示すように、接触の特性強度は、接触検出強度閾値ITを上回り、そして、ヒント押圧強度閾値ITを下回る。図6Fにおいて、強度レベルメータ5028で示すように、ヒント押圧強度閾値ITを上回る接触6006の特性強度の増加によって、メッセージバブル5018の領域が増大し、仮想椅子5020のサイズが増大し、そしてメッセージ送信ユーザーインターフェース5008がメッセージバブル5018(例えば、接触の特性強度を増加させる効果の視覚フィードバックをユーザーに提供する)の後方でぼやけ始めた。図6Gにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触6006の特性強度の増加によって、メッセージバブル5018がプラッタ6008に置き換えられ、仮想椅子5020のサイズが更に増大し、そしてプラッタ6008の後方のメッセージ送信ユーザーインターフェース5008のぼやけを増加させた。図6Hにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触6006の特性強度の増加により、メッセージ送信ユーザーインターフェース5008が表示されなくなり、ステージングユーザーインターフェース6010のフェードイン(点線によって示される)が起動される。加えて、図6Hで示すように、深い押圧強度閾値ITを上回る接触6006の特性強度の増加によって、デバイス100の触知出力生成器167に触知出力を(6012で図示されるように)出力させ、メッセージ送信ユーザーインターフェース5008をステージングユーザーインターフェース6010に置き換えるための基準が満たされたことを示す。 6E-6L illustrate inputs that cause the message sending user interface 5008 to be replaced by the staging user interface 6010 and then reorient the virtual chair 5020. In FIG. 6E, contact 6006 with the touch screen 112 of the device 100 is detected. As shown by the intensity level meter 5028, the characteristic intensity of the contact is above the contact detection intensity threshold IT 0 and below the hint pressing intensity threshold IT H. In FIG. 6F, as shown by the intensity level meter 5028, an increase in the characteristic intensity of the contact 6006 above the hint pressing intensity threshold ITH increases the area of the message bubble 5018, increases the size of the virtual chair 5020, and the message. The transmitting user interface 5008 began to blur behind the message bubble 5018 (eg, providing the user with visual feedback of the effect of increasing the characteristic strength of the contact). In FIG. 6G, as shown by the intensity level meter 5028, the increased characteristic intensity of the contact 6006 above the light pressing intensity threshold ITL replaced the message bubble 5018 with platter 6008, further increasing the size of the virtual chair 5020. And increased the blurring of the message sending user interface 5008 behind the platter 6008. In FIG. 6H, as shown by the intensity level meter 5028, the message transmission user interface 5008 disappears due to the increase in the characteristic intensity of the contact 6006 that exceeds the deep pressing intensity threshold IT D , and the staging user interface 6010 fades in (by dotted line). Shown) is activated. In addition, as shown in FIG. 6H, the tactile output to the tactile output generator 167 of device 100 (as illustrated in 6012) due to the increase in the characteristic strength of the contact 6006 above the deep pressing intensity threshold IT D. Output to indicate that the criteria for replacing the message sending user interface 5008 with the staging user interface 6010 have been met.

いくつかの実施形態では、接触6006の特性強度が深い押圧強度閾値ITに及ぶ前に、図6Hで図示するように、図6E~6Gに図示される進行は可逆である。例えば、図6F及び/又は6Gに図示される増加の後に接触6006の特性強度を低下させることは、接触6006の減少した強度レベルに、対応するインターフェース状態が表示されるようにする(例えば、図6Gで示すインターフェースは接触の減少した特性強度が軽い押圧強度閾値ITを上回るという判定にしたがって示され、図6Fで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを上回るという判定にしたがって示され、そして、図6Eで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを下回るという判定にしたがって示される)。いくつかの実施形態では、図6F及び/又は6Gに図示される増加の後に接触6006の特性強度を低下させることにより、図6Eで示すインターフェースが再表示させられる。 In some embodiments, the progressions illustrated in FIGS. 6E-6G are reversible, as illustrated in FIG. 6H, before the characteristic strength of contact 6006 reaches the deep pressing strength threshold IT D. For example, reducing the characteristic strength of the contact 6006 after the increase illustrated in FIGS. 6F and / or 6G causes the reduced strength level of the contact 6006 to display the corresponding interface state (eg, FIG. The interface shown in 6G is shown according to the determination that the reduced contact characteristic strength exceeds the light pressing strength threshold IT L , and the interface shown in FIG. 6F determines that the reduced contact characteristic strength exceeds the hint pressing strength threshold IT H. And the interface shown in FIG. 6E is shown according to the determination that the reduced characteristic strength of the contact is below the hint pressing strength threshold ITH ). In some embodiments, the interface shown in FIG. 6E is redisplayed by reducing the characteristic strength of contact 6006 after the increase shown in FIGS. 6F and / or 6G.

図6Iにおいて、ステージングユーザーインターフェース6010が表示される。ステージングユーザーインターフェース6010は、仮想椅子5020が表示されるステージ6014を含む。図6H~6Iから、仮想椅子5020は、図6Hの仮想椅子5020の位置から図6Iの仮想椅子5020の位置への遷移を示すために、アニメーション化される。例えば、仮想椅子5020は、ステージ6014(例えば、このようなその仮想椅子は、ステージ6014によってサポートされるように見える)に対して所定の位置、向き及び/又は距離に回転される。ステージングユーザーインターフェース6010はまた、(例えば、バック制御6016に対応する位置に入力されるタップによって)アクティブ化されると、前に表示されたユーザーインターフェース(例えば、メッセージ送信ユーザーインターフェース5008)を再表示させる、バック制御6016を含む。ステージングユーザーインターフェース6010はまた、現在のディスプレイモード(例えば、現在のディスプレイモードは強調された「3D」インジケータによって示されるように、ステージングユーザーインターフェースモードである)を示し、そして、アクティブ化されると選択されたディスプレイモードに遷移する、トグル制御6018を含む。例えば、ステージングユーザーインターフェース6010が表示されている間に、トグル制御6018に対応する位置(例えば、テキスト「ワールド」を含むトグル制御6018の一部に対応する位置)での接触により入力されるタップによって、ステージングユーザーインターフェース6010はカメラの視野と置き換えられる。ステージングユーザーインターフェース6010はまた、(例えば、共有インターフェースを表示するための)シェア制御6020を含む。 In FIG. 6I, the staging user interface 6010 is displayed. The staging user interface 6010 includes a stage 6014 on which the virtual chair 5020 is displayed. From FIGS. 6H-6I, the virtual chair 5020 is animated to show the transition from the position of the virtual chair 5020 of FIG. 6H to the position of the virtual chair 5020 of FIG. 6I. For example, the virtual chair 5020 is rotated into a predetermined position, orientation and / or distance with respect to stage 6014 (eg, such virtual chair appears to be supported by stage 6014). The staging user interface 6010 also redisplays the previously displayed user interface (eg, message sending user interface 5008) when activated (eg, by a tap entered at the position corresponding to the back control 6016). , Back control 6016 included. The staging user interface 6010 also indicates the current display mode (eg, the current display mode is the staging user interface mode, as indicated by the highlighted "3D" indicator) and is selected when activated. Includes a toggle control 6018 that transitions to the displayed mode. For example, by a tap entered by contact at a position corresponding to the toggle control 6018 (eg, a position corresponding to a portion of the toggle control 6018 including the text "world") while the staging user interface 6010 is displayed. , The staging user interface 6010 is replaced with the field of view of the camera. The staging user interface 6010 also includes a share control 6020 (eg, for displaying a shared interface).

図6J~6Lは、接触6006の移動によって生じるステージ6014に対する仮想椅子5020の回転を図示する。図6J~6Kにおいて、接触6006が矢印6022によって示されるパスに沿って移動するにつれて、仮想椅子5020は(例えば、接触6066の移動に対して垂直である第1の軸のまわりを)回転する。図6K~6Lにおいて、矢印6024によって示されるパスに沿って、そして、その後矢印6025によって示されるパスに沿って接触6006が移動するにつれて、仮想椅子5020は(例えば、接触6066の移動に対して垂直である第2の軸のまわりを)回転する。図6Mにおいて、接触6006はタッチスクリーン112からリフトオフしている。いくつかの実施形態では、図6J~6Lに示すように、仮想椅子5020の回転はステージ6014の表面によって拘束される。例えば、仮想椅子5020の少なくとも1つの脚部は、仮想椅子の回転の間、ステージ6014の表面と接触したままである。いくつかの実施形態では、ステージ6014の表面は、仮想椅子5020の動きに特定の制約をもたらすことのない、仮想椅子5020の自由回転及び垂直並進移動の基準系としての役割を果たす。 6J-6L illustrate the rotation of the virtual chair 5020 with respect to stage 6014 caused by the movement of contact 6006. In FIGS. 6J-6K, as the contact 6006 moves along the path indicated by the arrow 6022, the virtual chair 5020 rotates (eg, around a first axis perpendicular to the movement of the contact 6066). In FIGS. 6K-6L, as the contact 6006 moves along the path indicated by arrow 6024 and then along the path indicated by arrow 6025, the virtual chair 5020 (eg, perpendicular to the movement of contact 6066). Rotate (around the second axis). In FIG. 6M, the contact 6006 is lifted off from the touch screen 112. In some embodiments, the rotation of the virtual chair 5020 is constrained by the surface of the stage 6014, as shown in FIGS. 6J-6L. For example, at least one leg of the virtual chair 5020 remains in contact with the surface of the stage 6014 during the rotation of the virtual chair. In some embodiments, the surface of the stage 6014 serves as a reference system for free rotation and vertical translation of the virtual chair 5020 without causing any particular constraint on the movement of the virtual chair 5020.

図6N~6Oは、仮想椅子5020の表示されたサイズを調整する入力を図示する。図6Nにおいて、タッチスクリーン112との第1の接触6026及び第2の接触6030が検出される。第1の接触6026は矢印6028によって示されるパスに沿って移動し、そして、第1の接触6026の移動と同時に、第2の接触6030は矢印6032によって示されるパスに沿って移動する。図6N~6Oにおいて、第1の接触6026及び第2の接触6030が、それぞれ(例えば、デピンチジェスチャにおいて)、矢印6028及び6032によって示されるパスに沿って移動するにつれて、仮想椅子5020の表示されるサイズは増大する。図6Pにおいて、第1の接触6030及び第2の接触6026はタッチスクリーン112からリフトオフしており、そして、仮想椅子5020は接触6026及び6030のリフトオフの後増大したサイズを維持する。 6N-6O illustrate inputs that adjust the displayed size of the virtual chair 5020. In FIG. 6N, the first contact 6026 and the second contact 6030 with the touch screen 112 are detected. The first contact 6026 moves along the path indicated by arrow 6028, and at the same time as the first contact 6026 moves, the second contact 6030 moves along the path indicated by arrow 6032. In FIGS. 6N-6O, the virtual chair 5020 is displayed as the first contact 6026 and the second contact 6030 move along the paths indicated by the arrows 6028 and 6032, respectively (eg, in a depinch gesture). Size increases. In FIG. 6P, the first contact 6030 and the second contact 6026 are lifted off from the touch screen 112, and the virtual chair 5020 maintains its increased size after the lift-off of contacts 6026 and 6030.

図6Q~6Uは、ステージングユーザーインターフェース6010をデバイス100の1つ以上のカメラの視野6036により置き換えさせる入力を、図示する。図6Qにおいて、デバイス100のタッチスクリーン112との接触6034が検出される。強度レベルメータ5028で示すように、接触の特性強度は、接触検出強度閾値ITを上回り、そして、ヒント押圧強度閾値ITを下回る。図6Rにおいて、強度レベルメータ5028で示すように、ヒント押圧強度閾値ITを上回る接触5026の特性強度の増加により、ステージングユーザーインターフェース6010が(点線によって示されるように)仮想椅子5020の後方でぼやけ始めた。図6Sにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触6034の特性強度の増加により、ステージングユーザーインターフェース6010が表示されなくなり、カメラの視野6036のフェードイン(点線によって示される)が起動される。図6Tにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触6034の特性強度の増加により、カメラの視野6036が表示させられる。加えて、図6Tで示すように、深い押圧強度閾値ITを上回る接触6034の特性強度の増加によって、デバイス100の触知出力生成器167に触知出力を(6038で図示されるように)出力させ、ステージングユーザーインターフェース6010の表示をカメラの視野6036の表示に置き換えるための基準が満たされたことを示す。図6Uにおいて、接触6034はタッチスクリーン112からリフトオフしている。いくつかの実施形態では、接触6034の特性強度が深い押圧強度閾値ITに及ぶ前に、図6Tで図示するように、図6Q~6Tに図示される進行は可逆である。例えば、接触6034の特性強度を図6R及び/又は6Sに図示される増加の後に低下させることは、表示される接触6034の減少した強度レベルに対応するインターフェース状態を引き起こす。 6Q-6U illustrate inputs that cause the staging user interface 6010 to be replaced by the field of view 6036 of one or more cameras on the device 100. In FIG. 6Q, contact 6034 of the device 100 with the touch screen 112 is detected. As shown by the intensity level meter 5028, the characteristic intensity of the contact is above the contact detection intensity threshold IT 0 and below the hint pressing intensity threshold IT H. In FIG. 6R, as shown by the intensity level meter 5028, the staging user interface 6010 is blurred behind the virtual chair 5020 (as indicated by the dotted line) due to the increase in the characteristic intensity of the contact 5026 above the hint pressing intensity threshold ITH. I started. In FIG. 6S, as shown by the intensity level meter 5028, the staging user interface 6010 disappears due to the increase in the characteristic intensity of the contact 6034 above the light pressing intensity threshold ITL, and the camera field of view 6036 fades in (indicated by dotted lines). Is started. In FIG. 6T, as shown by the intensity level meter 5028, the field of view 6036 of the camera is displayed by the increase in the characteristic intensity of the contact 6034 exceeding the deep pressing intensity threshold IT D. In addition, as shown in FIG. 6T, the tactile output to the tactile output generator 167 of device 100 (as illustrated in 6038) due to the increase in the characteristic strength of the contact 6034 above the deep pressing intensity threshold IT D. Output to indicate that the criteria for replacing the display of the staging user interface 6010 with the display of the camera's field of view 6036 have been met. In FIG. 6U, the contact 6034 is lifted off from the touch screen 112. In some embodiments, the progressions illustrated in FIGS. 6Q-6T are reversible, as illustrated in FIG. 6T, before the characteristic strength of the contact 6034 reaches the deep pressing strength threshold ITD. For example, reducing the characteristic strength of the contact 6034 after the increase shown in FIGS. 6R and / or 6S causes an interface state corresponding to the reduced strength level of the displayed contact 6034.

図6Q~6Uから、仮想椅子5020は検出されたプレーンに(例えば、デバイス100による仮想椅子5020が床面5038などの検出水平面上の直立した向きに置かれるように構成されるという決定にしたがって)配置され、そして、仮想椅子5020のサイズは調整される(例えば、カメラの視野6036で示す物理スペース5002に対する仮想椅子5020の縮尺は、仮想椅子5020の所定の「実世界」サイズ及び/又はカメラの視野6036のオブジェクト(例えばテーブル5004)の検出サイズに基づいて、決定される)。ステージングインターフェース6010が表示された間に、(例えば、図6J~6Kに関して記載されているように)仮想椅子5020の回転によって生じる仮想椅子5020の向きは、仮想椅子5020がステージングユーザーインターフェース6010からカメラの視野6036まで遷移するのにつれて維持される。例えば、床面5038に対する仮想椅子5020の向きは、ステージ5014の表面に対する仮想椅子5020の最終的な向きと同じである。いくつかの実施形態では、ステージングユーザーインターフェースの仮想オブジェクト5020のサイズの調整は、仮想椅子5020のサイズが物理スペース5002のサイズに対して視野6036において調整されるときに、考慮される。 From FIGS. 6Q-6U, the virtual chair 5020 is placed on the detected plane (eg, according to the determination by device 100 that the virtual chair 5020 is configured to be placed upright on the detection horizontal plane, such as floor 5038). Arranged and the size of the virtual chair 5020 is adjusted (eg, the scale of the virtual chair 5020 relative to the physical space 5002 shown in the camera view 6036 is the predetermined "real world" size of the virtual chair 5020 and / or the camera. Determined based on the detection size of an object in field 6036 (eg, table 5004). While the staging interface 6010 is displayed, the orientation of the virtual chair 5020 caused by the rotation of the virtual chair 5020 (eg, as described with respect to FIGS. 6J-6K) is such that the virtual chair 5020 is from the staging user interface 6010 to the camera. It is maintained as it transitions to the field of view 6036. For example, the orientation of the virtual chair 5020 with respect to the floor surface 5038 is the same as the final orientation of the virtual chair 5020 with respect to the surface of the stage 5014. In some embodiments, adjusting the size of the virtual object 5020 in the staging user interface is taken into account when the size of the virtual chair 5020 is adjusted in the field of view 6036 with respect to the size of the physical space 5002.

図6V~6Yは、カメラの視野6036をステージングユーザーインターフェース6010により置き換えさせる入力を、図示する。図6Vにおいて、トグル制御6018(例えば、テキスト「3D」を含むトグル制御6018の一部に対応する位置)に対応する位置で、接触6040による入力(例えば、タップ入力)が検出される。図6W~6Yにおいて、接触6040による入力に応答して、カメラの視野6036は(図6Wの点線によって示すように)フェードアウトし、ステージングユーザーインターフェース6010は(図6Xの点線によって示すように)フェードインし、そして、ステージングユーザーインターフェース6010は(図6Yに示すように)完全に表示される。図6V~6Yから、仮想椅子5020のサイズは調整され、そして、仮想椅子5020の位置は変化する(例えば、仮想椅子5020をステージングユーザーインターフェースのための所定の位置及びサイズに戻すために)。 6V-6Y illustrate inputs that cause the camera's field of view 6036 to be replaced by the staging user interface 6010. In FIG. 6V, an input by contact 6040 (eg, tap input) is detected at a position corresponding to the toggle control 6018 (eg, a position corresponding to a portion of the toggle control 6018 including the text “3D”). In FIGS. 6W-6Y, in response to input by contact 6040, the camera field of view 6036 fades out (as indicated by the dotted line in FIG. 6W) and the staging user interface 6010 fades in (as indicated by the dotted line in FIG. 6X). And the staging user interface 6010 is fully visible (as shown in FIG. 6Y). From FIGS. 6V-6Y, the size of the virtual chair 5020 is adjusted and the position of the virtual chair 5020 changes (eg, to return the virtual chair 5020 to a predetermined position and size for the staging user interface).

図6Z~6ACは、ステージングユーザーインターフェース6010をメッセージ送信ユーザーインターフェース5008により置き換えさせる入力を、図示する。図6Zにおいて、接触6042による入力(例えば、タップ入力)は、バック制御6016に対応する位置で検出される。図6AA~6ACにおいて、接触6042による入力に応答して、ステージングユーザーインターフェース6010は(図6AAの点線によって示すように)フェードアウトし、メッセージ送信ユーザーインターフェース5008は(図6ABの点線によって示すように)フェードインし、そして、メッセージ送信ユーザーインターフェース5008は(図6ACに示すように)完全に表示される。図6Z~6ABから、仮想椅子5020のサイズ、向き及び位置は、ディスプレイ上で連続的に調整される(例えば、仮想椅子5020をメッセージ送信ユーザーインターフェース5008のための所定の位置、サイズ及び向きに戻すために)。 6Z-6AC illustrate inputs that cause the staging user interface 6010 to be replaced by the message sending user interface 5008. In FIG. 6Z, the input by the contact 6042 (eg, tap input) is detected at the position corresponding to the back control 6016. In FIGS. 6AA-6AC, in response to input by contact 6042, the staging user interface 6010 fades out (as indicated by the dotted line in FIG. 6AA) and the message sending user interface 5008 fades (as indicated by the dotted line in FIG. 6AB). The message sending user interface 5008 is fully displayed (as shown in FIG. 6AC). From FIGS. 6Z-6AB, the size, orientation and orientation of the virtual chair 5020 are continuously adjusted on the display (eg, returning the virtual chair 5020 to a predetermined position, size and orientation for the message sending user interface 5008). for).

図6AD~6AJは、メッセージ送信ユーザーインターフェース5008を(例えば、ステージングユーザーインターフェース6010の表示をバイパスして)カメラの視野6036により置き換えさせる入力を、図示する。図6ADにおいて、接触6044は仮想椅子5020に対応する位置で検出される。接触6044による入力は、長いタッチジェスチャ(その間は接触6044が、少なくとも所定の閾値時間に対して閾値移動量未満の仮想オブジェクト5020の表現に対応するタッチ感知面上の場所に維持される)とそれに続く(上方へ仮想椅子5020をドラッグする)上方へのスワイプジェスチャを含む。図6AD~6AEに示すように、仮想椅子5020は接触6044が矢印6046によって示されるパスに沿って移動するにつれて、上方へドラッグされる。図6AEにおいて、メッセージ送信ユーザーインターフェース5008は仮想椅子5020の後方でフェードアウトする。図6AE~6AFに示すように、接触6044が矢印6048によって示されるパスに沿って移動するにつれて、仮想椅子5020は上方へドラッグされ続ける。図6AFにおいて、カメラの視野5036は、仮想椅子5020の後方でフェードインする。図6AGにおいて、長いタッチジェスチャとそれに続く上方へのスワイプジェスチャを含む接触6044による入力に応答して、カメラの視野5036は完全に表示される。図6AHにおいて、接触6044はタッチスクリーン112からリフトオフする。図6AH~6AJにおいて、接触6044のリフトオフに応答して、仮想椅子5020は、(例えば、仮想椅子5020がもはや接触によって高速されないか又はドラッグされないので)リリースされて、プレーン(例えば、水平の(床)表面が仮想椅子5020に対応するという判定にしたがって、床面5038)に落ちる。加えて、図6AJで図示するように、デバイス100の触知出力生成器167は、触知出力を(6050で図示するように)出力して、仮想椅子5020が床面5038にランディングしたことを示す。 6AD-6AJ illustrate inputs that cause the message sending user interface 5008 to be replaced by the camera field of view 6036 (eg, bypassing the display of the staging user interface 6010). In FIG. 6AD, the contact 6044 is detected at the position corresponding to the virtual chair 5020. The input by the contact 6044 is a long touch gesture, during which the contact 6044 is maintained in place on the touch sensitive surface corresponding to the representation of the virtual object 5020 that is less than the threshold movement for at least a given threshold time. Includes an upward swipe gesture that follows (drags the virtual chair 5020 upwards). As shown in FIGS. 6AD-6AE, the virtual chair 5020 is dragged upward as the contact 6044 moves along the path indicated by the arrow 6046. In FIG. 6AE, the message transmitting user interface 5008 fades out behind the virtual chair 5020. As shown in FIGS. 6AE-6AF, the virtual chair 5020 continues to be dragged upward as the contact 6044 moves along the path indicated by the arrow 6048. In FIG. 6AF, the camera field of view 5036 fades in behind the virtual chair 5020. In FIG. 6AG, the camera field of view 5036 is fully displayed in response to input by contact 6044, including a long touch gesture followed by an upward swipe gesture. In FIG. 6AH, the contact 6044 lifts off from the touch screen 112. In FIGS. 6AH-6AJ, in response to the lift-off of contact 6044, the virtual chair 5020 is released (eg, because the virtual chair 5020 is no longer accelerated or dragged by contact) and is plain (eg, horizontal (floor). ) Fall on the floor 5038) according to the determination that the surface corresponds to the virtual chair 5020. In addition, as illustrated in FIG. 6AJ, the tactile output generator 167 of the device 100 outputs the tactile output (as shown in 6050) to indicate that the virtual chair 5020 has landed on the floor surface 5038. show.

図7A~7Pは、いくつかの実施形態にしたがって、アイテムが仮想三次元オブジェクトに対応することを示すための視覚的な指示を有するアイテムを表示するための、例示ユーザーインターフェースを図示する。これらの図におけるユーザーインターフェースは、図8A~8E、9A~9D、10A~10D、16A~16G、17A~17D、18A~18I、19A~19H及び20A~20Fにおけるプロセスを含む、以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する表現的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に表示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 7A-7P illustrate an exemplary user interface for displaying an item with visual instructions to indicate that the item corresponds to a virtual 3D object, according to some embodiments. The user interfaces in these figures include the processes in FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H and 20A-20F, the processes described below. Is used to illustrate. For convenience of illustration, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the expressive point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact. Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional, with the focus selector, while displaying the user interface shown in the figure on the display 450, depending on the detection of contact on the touch sensitive surface 451 with the display 450 and separately. It is performed on a device having a touch sensing surface 451.

図7Aは、アプリケーションのメニューのためのユーザーインターフェース400が表示される間に検出される入力を図示する。入力は要求に対応して、第1のユーザーインターフェース(例えば、インターネットブラウザユーザーインターフェース5060)を表示する。図7Aにおいて、接触7000による入力(例えば、タップ入力)がブラウザモジュール147のためのアイコン420に対応する位置で検出される。入力に応答して、図7Bに示すように、インターネットブラウザユーザーインターフェース5060が表示される。 FIG. 7A illustrates the inputs detected while the user interface 400 for the application menu is displayed. The input responds to the request and displays a first user interface (eg, Internet browser user interface 5060). In FIG. 7A, the input by contact 7000 (eg, tap input) is detected at the position corresponding to the icon 420 for the browser module 147. In response to input, the Internet browser user interface 5060 is displayed, as shown in FIG. 7B.

図7Bは、(例えば、図5AEに関して詳細に説明したような)インターネットブラウザユーザーインターフェース5060を図示する。インターネットブラウザユーザーインターフェース5060は、ウェブオブジェクト5066、5068、5070、5072、5074及び5076を含む。ウェブオブジェクト5066、5068及び5072はそれぞれ、仮想オブジェクトインジケータ5078、5080及び5082によって示されるような、三次元仮想オブジェクトの二次元の表現を含む。ウェブオブジェクト5070、5074及び5076は、二次元画像を含む(しかし、ウェブオブジェクト5070、5074及び5076の二次元画像は、仮想オブジェクトインジケータの欠如によって示されるように、三次元仮想オブジェクトに対応しない)。 FIG. 7B illustrates an internet browser user interface 5060 (eg, as described in detail with respect to FIG. 5AE). The internet browser user interface 5060 includes web objects 5066, 5068, 5070, 5072, 5074 and 5076. Web objects 5066, 5068 and 5072 each include a two-dimensional representation of a three-dimensional virtual object, as indicated by the virtual object indicators 5078, 5080 and 5082, respectively. Web objects 5070, 5074 and 5076 include two-dimensional images (but the two-dimensional images of web objects 5070, 5074 and 5076 do not correspond to three-dimensional virtual objects, as indicated by the lack of virtual object indicators).

図7C~7Dは、インターネットブラウザユーザーインターフェース5060の並進移動(例えば、スクロール)が生じさせる入力を図示する。図7Bにおいて、タッチスクリーン112との接触7002が検出される。図7C~7Dにおいて、接触7002が矢印7004によって示されるパスに沿って移動するにつれて、ウェブオブジェクト5066、5068、5070、5072、5074及び5076は上方へスクロールし、付加的なウェブオブジェクト7003及び7005を現す。加えて、接触7002が矢印7004によって示されるパスに沿って移動するにつれて、仮想オブジェクトインジケータ5078、5080及び5082をそれぞれ含むウェブオブジェクト5066、5068及び5072の仮想オブジェクトは、入力の(上方へ垂直な)方向にしたがって回転する(例えば、上方へ傾く)。例えば、仮想ランプ5084は、図7Cの第1の向きから図7Dの第2の向きまで上方へ傾く。ウェブオブジェクト5070、5074及び5076の二次元画像は、接触がインターネットブラウザユーザーインターフェース5060をスクロールするにつれて回転はしない。図7Eにおいて、接触7002はタッチスクリーン112からリフトオフしている。いくつかの実施形態では、ウェブオブジェクト5066、5068及び5072で表されるオブジェクトの回転挙動は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有するという視覚的な指示として使われ、その一方で、ウェブオブジェクト5070、5074及び5076で表されるオブジェクトのこのような回転挙動の欠如は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有しないという視覚的な指示として使われる。 7C-7D illustrate the inputs produced by translational movement (eg, scrolling) of the Internet browser user interface 5060. In FIG. 7B, contact 7002 with the touch screen 112 is detected. In FIGS. 7C-7D, as the contact 7002 moves along the path indicated by the arrow 7004, the web objects 5066, 5068, 5070, 5072, 5074 and 5076 scroll upwards to the additional web objects 7003 and 7005. Reveal. In addition, as the contact 7002 moves along the path indicated by the arrow 7004, the virtual objects of the web objects 5066, 5068 and 5072, including the virtual object indicators 5078, 5080 and 5082, respectively, are input (vertical upwards). It rotates according to the direction (for example, tilts upward). For example, the virtual lamp 5084 tilts upward from the first orientation in FIG. 7C to the second orientation in FIG. 7D. The two-dimensional images of web objects 5070, 5074 and 5076 do not rotate as the contact scrolls through the internet browser user interface 5060. In FIG. 7E, the contact 7002 is lifted off from the touch screen 112. In some embodiments, the rotational behavior of the objects represented by the web objects 5066, 5068 and 5072 is used as a visual indication that these web objects have corresponding three-dimensional virtual objects visible in an augmented reality environment. On the other hand, such a lack of rotational behavior of the objects represented by the web objects 5070, 5074 and 5076 is a visual that these web objects do not have the corresponding three-dimensional virtual objects visible in augmented reality. Used as an instruction.

図7F~7Gは、仮想オブジェクトが物理的世界に対するデバイス100の向きの変化に応答してディスプレイ上で回転する視差効果を図示する。 7F-7G illustrate the parallax effect in which a virtual object rotates on a display in response to changes in the orientation of the device 100 with respect to the physical world.

図7F1は、デバイス100が実質的に垂直向きとなるように、ユーザー7006によってユーザーの手5006に保持されるデバイス100を図示する。図7F2は、デバイス100が図7F1において図示される向きにあるときにデバイス100によって表示される、インターネットブラウザユーザーインターフェース5060を図示する。 FIG. 7F1 illustrates the device 100 held by the user 7006 in the user's hand 5006 so that the device 100 is substantially vertically oriented. FIG. 7F2 illustrates an internet browser user interface 5060 displayed by the device 100 when the device 100 is in the orientation shown in FIG. 7F1.

図7G1は、デバイス100が実質的に横向きとなるように、ユーザー7006によってユーザーの手5006に保持されるデバイス100を図示する。図7G2は、デバイス100が図7G1において図示される向きにあるときにデバイス100によって表示される、インターネットブラウザユーザーインターフェース5060を図示する。図7F2から図7G2までに、仮想オブジェクトインジケータ5078、5080及び5082をそれぞれ含むウェブオブジェクト5066、5068及び5072の仮想オブジェクトの向きは、デバイスの方向の変化にしたがって回転する(例えば、上方へ傾く)。例えば、仮想ランプ5084は、物理空間におけるデバイス向きの同時並行の変化にしたがって、図7F2の第1の向きから図7G2の第2の向きまで上方へ傾く。ウェブオブジェクト5070、5074及び5076の二次元画像は、デバイスの向きが変化するにつれて回転はしない。いくつかの実施形態では、ウェブオブジェクト5066、5068及び5072で表されるオブジェクトの回転挙動は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有するという視覚的な指示として使われ、その一方で、ウェブオブジェクト5070、5074及び5076で表されるオブジェクトのこのような回転挙動の欠如は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有しないという視覚的な指示として使われる。 FIG. 7G1 illustrates the device 100 held by the user 7006 in the user's hand 5006 so that the device 100 is substantially sideways. FIG. 7G2 illustrates an internet browser user interface 5060 displayed by the device 100 when the device 100 is in the orientation shown in FIG. 7G1. From FIG. 7F2 to FIG. 7G2, the orientation of the virtual objects of the web objects 5066, 5068 and 5072, including the virtual object indicators 5078, 5080 and 5082, respectively, rotates (eg, tilts upward) as the orientation of the device changes. For example, the virtual lamp 5084 tilts upward from the first orientation in FIG. 7F2 to the second orientation in FIG. 7G2 as the device orientation changes in physical space in parallel. The two-dimensional images of the web objects 5070, 5074, and 5076 do not rotate as the orientation of the device changes. In some embodiments, the rotational behavior of the objects represented by the web objects 5066, 5068 and 5072 is used as a visual indication that these web objects have corresponding three-dimensional virtual objects visible in an augmented reality environment. On the other hand, such a lack of rotational behavior of the objects represented by the web objects 5070, 5074 and 5076 is a visual that these web objects do not have the corresponding three-dimensional virtual objects visible in augmented reality. Used as an instruction.

図7H~7Lは、第2のユーザーインターフェース(例えば、メッセージ送信ユーザーインターフェース5008)を表示する要求に対応する入力を図示する。図7Hにおいて、接触7008がディスプレイ112の下側縁部に対応する位置で検出される。図7H~7Iにおいて、接触7008は、矢印7010によって示されるパスに沿って、上方へ移動する。図7I~7Jにおいて、接触7008は、矢印7012によって示されるパスに沿って上方へ移動し続ける。図7H~7Jにおいて、接触7008が上方へディスプレイ112の下側縁部から上方へ移動するにつれて、図7Iに示すように、インターネットブラウザユーザーインターフェース5060のサイズは減少し、そして、図7Jで、マルチタスキングユーザーインターフェース7012が(例えば、接触7008による上方へのエッジスワイプジェスチャに応答して)表示される。マルチタスキングユーザーインターフェース7012は、保持された状態(例えば、保持された状態は、それぞれのアプリケーションがデバイス上で実行されるフォアグラウンドのアプリケーション用であったときの、それぞれのアプリケーションの最後の状態である)及び各種の制御インターフェース(例えば、図7Jで図示するように、制御センターユーザーインターフェース7014、インターネットブラウザユーザーインターフェース5060及びメッセージ送信ユーザーインターフェース5008)を有する各種のアプリケーションの中からインターフェースの選択を可能にするように、構成される。図7Kにおいて、接触7008はタッチスクリーン112からリフトオフする。図7Lにおいて、接触7016による入力(例えば、タップ入力)がメッセージ送信ユーザーインターフェース5008に対応する位置で検出される。接触7016による入力に応答して、図7Mで図示するように、メッセージ送信ユーザーインターフェース5008が表示される。 7H-7L illustrate the input corresponding to the request to display the second user interface (eg, message sending user interface 5008). In FIG. 7H, the contact 7008 is detected at a position corresponding to the lower edge of the display 112. In FIGS. 7H-7I, contact 7008 moves upward along the path indicated by arrow 7010. In FIGS. 7I-7J, contact 7008 continues to move upward along the path indicated by arrow 7012. In FIGS. 7H-7J, as the contact 7008 moves upward from the lower edge of the display 112, the size of the internet browser user interface 5060 decreases, as shown in FIG. 7I, and in FIG. 7J, the multi The tasking user interface 7012 is displayed (eg, in response to an upward edge swipe gesture by contact 7008). The multitasking user interface 7012 is a retained state (eg, the retained state is the last state of each application when it was for a foreground application running on the device. ) And various control interfaces (eg, control center user interface 7014, internet browser user interface 5060 and message sending user interface 5008, as illustrated in FIG. 7J) to enable interface selection from among various applications. It is configured as such. In FIG. 7K, the contact 7008 lifts off from the touch screen 112. In FIG. 7L, the input by contact 7016 (eg, tap input) is detected at the position corresponding to the message transmitting user interface 5008. In response to input by contact 7016, the message sending user interface 5008 is displayed, as illustrated in FIG. 7M.

図7Mは、メッセージで受け取られる仮想オブジェクト(例えば、仮想椅子5020)と、仮想椅子5020が仮想三次元オブジェクト(例えば、拡張現実ビューにおいて見えるオブジェクト及び/又は異なる角度から見えるオブジェクト)であることを示すための仮想オブジェクトインジケータ5022とを含むメッセージバブル5018を含む、(例えば、図5Bに関する更なる詳細にて説明したような)メッセージ送信ユーザーインターフェース5008を図示する。メッセージ送信ユーザーインターフェース5008はまた、送信したテキストメッセージを含むメッセージバブル6005及び絵文字7020を含む受信したテキストメッセージを含むメッセージバブル7018を含む。絵文字7020は、仮想三次元オブジェクトに対応しない二次元画像である。このために、絵文字7020は、仮想オブジェクトインジケータなしで表示される。 FIG. 7M shows a virtual object received in a message (eg, virtual chair 5020) and a virtual chair 5020 is a virtual three-dimensional object (eg, an object visible in an augmented reality view and / or an object visible from different angles). Illustrates a message sending user interface 5008 (eg, as described in further detail with respect to FIG. 5B), comprising a message bubble 5018 including a virtual object indicator 5022 for. The message sending user interface 5008 also includes a message bubble 6005 containing the transmitted text message and a message bubble 7018 containing the received text message containing the pictogram 7020. The pictogram 7020 is a two-dimensional image that does not correspond to a virtual three-dimensional object. For this, the pictogram 7020 is displayed without a virtual object indicator.

図7Nは、マップ7024を含むマップユーザーインターフェース7022、第1の関心地点のための関心地点情報領域7026及び第2の関心地点のための関心地点情報領域7032を図示する。例えば、第1の関心地点及び第2の関心地点は、検索入力領域7025の検索入力「Apple」に対応するマップ7024によって示される領域の中であるかすぐ近くの検索結果である。第1の関心地点情報領域7026において、第1の関心地点オブジェクト7028が仮想オブジェクトインジケータ7030によって表示されて、第1の関心地点オブジェクト7028が仮想三次元オブジェクトであることを示す。第2の関心地点情報領域7032において、第2の関心地点オブジェクト7034は仮想オブジェクトインジケータなしで表示され、それは第2の関心地点オブジェクト7034が拡張現実ビューにおいて見える仮想三次元オブジェクトに対応しないからである。 FIG. 7N illustrates a map user interface 7022 including map 7024, a point of interest information area 7026 for a first point of interest, and a point of interest information area 7032 for a second point of interest. For example, the first point of interest and the second point of interest are search results in or near the area indicated by the map 7024 corresponding to the search input "Apple" in the search input area 7025. In the first point of interest information area 7026, the first point of interest object 7028 is displayed by the virtual object indicator 7030 to indicate that the first point of interest object 7028 is a virtual three-dimensional object. In the second point of interest information area 7032, the second point of interest object 7034 is displayed without a virtual object indicator because the second point of interest object 7034 does not correspond to a virtual three-dimensional object visible in the augmented reality view. ..

図7Oは、ファイル管理制御7038、ファイル管理検索入力領域7040、第1のファイル(例えば、ポータブルドキュメントフォーマット(PDF)ファイル)のためのファイル情報領域7042、第2のファイル(例えば、写真ファイル)のためのファイル情報領域7044、第3のファイル(例えば、仮想椅子オブジェクト)のためのファイル情報領域7046及び第4のファイル(例えば、PDFファイル)のためのファイル情報領域7048を含む、ファイル管理ユーザーインターフェース7036を図示する。第3のファイル情報領域7046は、第3のファイルが仮想三次元オブジェクトに対応することを示すためにファイル情報領域7046のファイルプレビューオブジェクト7045に隣接して表示される仮想オブジェクトインジケータ7050を含む。第1のファイル情報領域7042、第2のファイル情報領域7044及び第4のファイル情報領域7048は、これらのファイル情報領域に対応するファイルが拡張現実環境において見える対応する仮想三次元オブジェクトを有しないので、仮想オブジェクトインジケータなしで表示される。 FIG. 7O shows a file management control 7038, a file management search input area 7040, a file information area 7042 for a first file (eg, a portable document format (PDF) file), and a second file (eg, a photo file). File management user interface, including a file information area 7044 for, a file information area 7046 for a third file (eg, a virtual chair object), and a file information area 7048 for a fourth file (eg, a PDF file). 7036 is illustrated. The third file information area 7046 includes a virtual object indicator 7050 that is displayed adjacent to the file preview object 7045 in the file information area 7046 to indicate that the third file corresponds to a virtual three-dimensional object. Since the first file information area 7042, the second file information area 7044, and the fourth file information area 7048 do not have the corresponding virtual three-dimensional object in which the file corresponding to these file information areas is visible in the augmented reality environment. , Displayed without a virtual object indicator.

図7Pは、電子メールナビゲーション制御7054、電子メール情報領域7056及び第1のアタッチメント7060の表現及び第2のアタッチメント7062の表現を含む電子メールコンテンツ領域7058を含む電子メールユーザーインターフェース7052を図示する。第1のアタッチメント7060の表現は、第1のアタッチメントが拡張現実環境において見える仮想三次元オブジェクトであることを示すための仮想オブジェクトインジケータ7064を含む。第2のアタッチメントが拡張現実環境において見える仮想三次元オブジェクトでないので、第2のアタッチメント7062は仮想オブジェクトインジケータなしで表示される。 FIG. 7P illustrates an email user interface 7052 including an email content area 7058 including an email navigation control 7054, an email information area 7056 and a representation of the first attachment 7060 and a representation of the second attachment 7062. The representation of the first attachment 7060 includes a virtual object indicator 7064 to indicate that the first attachment is a virtual three-dimensional object visible in an augmented reality environment. The second attachment 7062 is displayed without a virtual object indicator because the second attachment is not a virtual 3D object visible in an augmented reality environment.

図8A~8Eは、いくつかの実施形態にしたがって、仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える、方法800を図示しているフローチャートである。方法800は、ディスプレイ、タッチ感知面及び1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側の1つ以上の背面カメラ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと統合される。いくつかの実施形態では、ディスプレイは、タッチ感知面から分離している。方法800のいくつかの操作は任意選択的に組み合わされ、かつ/又は、いくつかの操作の順序は任意選択的に変更される。 8A-8E illustrate method 800, which switches from displaying a representation of a virtual object and displaying a first user interface area to displaying a second user interface area, according to some embodiments. It is a flowchart shown. Method 800 is an electronic device (eg, device 300 of FIG. 3) having a display, a touch sensitive surface and one or more cameras (eg, one or more rear cameras on the side of the device opposite the display and touch sensitive surface). , Or the portable multifunctional device 100) of FIG. 1A. In some embodiments, the display is a touch screen display and the touch sensitive surface is on or integrated with the display. In some embodiments, the display is separated from the touch sensitive surface. Some operations of Method 800 are optionally combined and / or the order of some operations is optionally changed.

方法800は、仮想オブジェクトの表現を第1のユーザーインターフェース領域に表示するデバイスのタッチ感知面で接触によって入力を検出することに関する。入力に応答して、デバイスは、第1のユーザーインターフェース領域の少なくとも一部の表示をデバイスの1つ以上のカメラの視野に置き換えると共に、連続的に仮想オブジェクトの表現を表示するべきかどうか判定するための基準を使用する。第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野に置き換えると共に、連続的に仮想オブジェクトの表現を表示するべきかどうか判定するための基準を使用することにより、入力に応答して複数の異なるタイプの操作の実行することが可能となる。入力に応答して(例えば、ユーザーインターフェースの少なくとも一部の表示を1つ以上のカメラの視野に置き換えるか、又は第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることなく、第1のユーザーインターフェース領域の表示を維持することによって)複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することのできる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 Method 800 relates to detecting an input by contact on the touch-sensitive surface of a device displaying a representation of a virtual object in a first user interface area. In response to input, the device replaces at least a portion of the display in the first user interface area with the field of view of one or more cameras on the device and determines whether the representation of the virtual object should be displayed continuously. Use the criteria for. Input by replacing at least a portion of the display in the first user interface area with the field of view of one or more cameras and using criteria to determine if the representation of the virtual object should be displayed continuously. It is possible to perform several different types of operations in response. In response to input (eg, replace at least a portion of the display in the user interface with the field of view of one or more cameras, or replace at least a portion of the display in the first user interface area with the field of view of one or more cameras. Allowing users to perform different types of operations (by maintaining the display of the first user interface area without replacing them with representations) increases the efficiency with which users can perform these operations. It enhances the usability of the device, which in addition improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

デバイスは、ディスプレイ112上の第1のユーザーインターフェース領域(例えば、二次元のグラフィックユーザーインターフェース又は一部(例えば、家具画像の一覧可能なリスト、1つ以上の選択可能なオブジェクトを含んでいる画像など))に仮想オブジェクトの表現(例えば、仮想椅子5020、仮想ランプ5084、靴、家具、手工具、装飾、人々、絵文字、ゲームキャラクタ、仮想家具などの、三次元オブジェクトのグラフィック表現)を表示する(802)。例えば、第1のユーザーインターフェース領域は、図5Bで示すメッセージ送信ユーザーインターフェース5008又は図5AEで示すインターネットブラウザユーザーインターフェース5060である。いくつかの実施形態では、第1のユーザーインターフェース領域は、デバイスを囲んでいる物理的環境の画像以外のバックグラウンドを含む(例えば、第1のユーザーインターフェース領域のバックグラウンドは、予め選択された背景色/パターンであるか、又は、1つ以上のカメラによって並行して取り込まれる出力像と異なり、かつ1つ以上のカメラの視野の有効なコンテンツと異なる背景画像である)。 The device is a first user interface area on the display 112, such as a two-dimensional graphic user interface or a portion (eg, a listable list of furniture images, an image containing one or more selectable objects, and the like. )) Displays a representation of a virtual object (eg, a graphic representation of a three-dimensional object such as a virtual chair 5020, a virtual lamp 5084, shoes, furniture, hand tools, decorations, people, pictograms, game characters, virtual furniture, etc.) ( 802). For example, the first user interface area is the message sending user interface 5008 shown in FIG. 5B or the Internet browser user interface 5060 shown in FIG. 5AE. In some embodiments, the first user interface area includes a background other than an image of the physical environment surrounding the device (eg, the background of the first user interface area is a preselected background. A background image that is a color / pattern or that differs from the output image captured in parallel by one or more cameras and that differs from the valid content of the field of view of one or more cameras).

ディスプレイ上の第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現を表示すると共に、デバイスは、ディスプレイ上の仮想オブジェクトの表現に対応するタッチ感知面112上の位置で、接触による第1の入力を検出する(804)(例えば、接触はタッチスクリーンディスプレイ上の仮想オブジェクトの第1の表現上で検出されるか、又は、接触は、仮想オブジェクトの第1の表現を有する第1のユーザーインターフェース領域において並行して表示され、そして、接触によって起動されると仮想オブジェクトのARビューの表示をトリガするように構成されるアフォーダンス上で、検出される)。例えば、第1の入力は、図5C~5Fに関して記載されている接触5020による入力又は図5AF~5ALに関して記載されている接触5086による入力である。 While displaying the first representation of the virtual object in the first user interface area on the display, the device is at the position on the touch sensitive surface 112 corresponding to the representation of the virtual object on the display, the first input by contact. (For example, the contact is detected on the first representation of the virtual object on the touch screen display, or the contact is the first user interface area having the first representation of the virtual object. Detected on the affordance configured to trigger the display of the AR view of the virtual object when displayed in parallel and triggered by contact). For example, the first input is the input by contact 5020 described for FIGS. 5C-5F or the input by contact 5086 described for FIGS. 5AF-5AL.

接触によって第1の入力を検出することに応答して(806)、接触による第1の入力が第1の(例えば、ARトリガ)基準を満たすという判定にしたがって(例えば、ARトリガ基準は、スワイプ入力、タッチホールド入力、押圧入力、タップ入力、所定の強度閾値以上の強度を有する激しい押圧又は、カメラのアクティブ化、デバイスを囲んでいる物理的環境の拡張現実(AR)ビューの表示、物理的環境の拡張現実ビュー内部の仮想オブジェクトの三次元の配置及び/若しくは上記のアクションの2つ以上の組合せをトリガすることに関連した、所定の別のタイプの入力ジェスチャを識別するように構成される基準である)、デバイスは、第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることを含むディスプレイ上の第2のユーザーインターフェース領域を表示し、そして、デバイスは、仮想オブジェクトの表現を連続的に表示すると共に、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える。例えば、ディスプレイ上の第2のユーザーインターフェース領域は、図5Hに関して記載されているプラッタ5030のカメラの視野5034又は図5AHに関して記載されているカメラの視野5034である。図5C~5Iにおいて、接触5026による入力が深い押圧強度閾値ITを上回って増加する特性強度を有するという判定にしたがって、仮想椅子オブジェクト5020は、連続的に表示されると共に、第1のユーザーインターフェース領域(メッセージ送信ユーザーインターフェース5008)を表示することから、メッセージ送信ユーザーインターフェース5008の一部の表示をプラッタ5030のカメラの視野5034に置き換える第2のユーザーインターフェース領域を表示することに切り替える。図5AF~5AHにおいて、接触5086による入力が深い押圧強度閾値ITを上回って増加する特性強度を有するという判定にしたがって、仮想ランプオブジェクト5084は、連続的に表示されると共に、第1のユーザーインターフェース領域(インターネットブラウザユーザーインターフェース5060)を表示することから、インターネットブラウザユーザーインターフェース5060の一部の表示をカメラの視野5034に置き換える第2のユーザーインターフェース領域を表示することに切り替える。 In response to detecting the first input by contact (806), according to the determination that the first input by contact meets the first (eg, AR trigger) criterion (eg, the AR trigger criterion is swipe). Input, touch hold input, press input, tap input, intense press with intensity above a given intensity threshold or camera activation, augmented reality (AR) view display of the physical environment surrounding the device, physical Configured to identify another type of input gesture associated with triggering a three-dimensional placement of virtual objects inside an augmented reality view of an environment and / or a combination of two or more of the above actions. The device displays a second user interface area on the display, including replacing at least a portion of the display in the first user interface area with a representation of the field of view of one or more cameras. The device continuously displays the representation of the virtual object and switches from displaying the first user interface area to displaying the second user interface area. For example, the second user interface area on the display is the field of view 5034 of the camera of the platter 5030 described for FIG. 5H or the field of view 5034 of the camera described for FIG. 5AH. In FIGS. 5C-5I, the virtual chair object 5020 is continuously displayed and the first user interface according to the determination that the input by the contact 5026 has a characteristic intensity that increases above the deep pressing intensity threshold IT D. From displaying the area (message sending user interface 5008), switching to displaying a second user interface area that replaces a portion of the display of the message sending user interface 5008 with the camera view 5034 of the platter 5030. In FIGS. 5AF-5AH, the virtual lamp object 5084 is continuously displayed and the first user interface according to the determination that the input by the contact 5086 has a characteristic intensity that increases above the deep pressing intensity threshold IT D. From displaying the area (Internet browser user interface 5060), switching to displaying a second user interface area that replaces a portion of the display of the Internet browser user interface 5060 with the camera view 5034.

いくつかの実施形態では、連続的に仮想オブジェクトの表現を表示することは、仮想オブジェクトの表現の表示を維持するか又は仮想オブジェクトの第2の表現に変化している仮想オブジェクトの第1の表現のアニメーション化された遷移(例えば、異なるサイズの、異なる視角からの、異なる描画スタイルの、又は、ディスプレイ上の異なる位置の、仮想オブジェクトのビュー)を表示することを含む。いくつかの実施形態では、1つ以上のカメラの視野5034は、デバイスの位置及び向きが(例えば、図5K~5Lで図示されるように)物理的環境に対して変化するときにリアルタイムに更新される、デバイスを囲んでいる物理的環境5002のライブ画像を表示する。いくつかの実施形態では、第2のユーザーインターフェース領域は、ディスプレイ上の第1のユーザーインターフェース領域を完全に置き換える。 In some embodiments, displaying a representation of a virtual object in succession maintains the representation of the representation of the virtual object or changes to the second representation of the virtual object as the first representation of the virtual object. Includes displaying animated transitions of (eg, views of virtual objects of different sizes, from different viewing angles, different drawing styles, or at different positions on the display). In some embodiments, the field of view 5034 of one or more cameras is updated in real time as the position and orientation of the device changes with respect to the physical environment (eg, as illustrated in FIGS. 5K-5L). Displays a live image of the physical environment 5002 surrounding the device. In some embodiments, the second user interface area completely replaces the first user interface area on the display.

いくつかの実施形態では、第2のユーザーインターフェース領域は、第1のユーザーインターフェース領域の一部に重なる(例えば、第1のユーザーインターフェース領域の一部は、ディスプレイの端に沿って、又は、ディスプレイの境界周辺に示される)。いくつかの実施形態では、第2のユーザーインターフェース領域は、第1のユーザーインターフェース領域の隣にポップアップする。いくつかの実施形態では、第1のユーザーインターフェース領域の中のバックグラウンドは、カメラの視野5034のコンテンツと置き換えられる。いくつかの実施形態では、デバイスは、第1のユーザーインターフェース領域で示す第1の向きから第2の向き(例えば、1つ以上のカメラの視野において捕えられる物理的環境の一部の現在の向きに対して所定の向き)まで(例えば、図5E~5Iで図示されるように)移動して回転している仮想オブジェクトを示す、アニメーション化された遷移を表示する。例えば、アニメーションは、仮想オブジェクトの二次元の表現を表示すると共に第1のユーザーインターフェース領域を表示することから、仮想オブジェクトの三次元の表現を表示すると共に第2のユーザーインターフェース領域を表示することへの遷移を含む。いくつかの実施形態では、仮想オブジェクトの三次元の表現は、二次元のグラフィカルユーザーインターフェース(例えば、第1のユーザーインターフェース領域)に示すように仮想オブジェクトの形状及び向きに基づいて予め定義されるアンカー平面を有する。拡張現実ビュー(例えば、第2のユーザーインターフェース領域)に遷移するときに、仮想オブジェクトの三次元の表現はディスプレイ上の仮想オブジェクトの元の位置からディスプレイ上の新しい位置まで(例えば、拡張現実ビューの中央又は拡張現実ビューの別の所定の位置まで)移動されて、サイズ変更されて、方向変更されて、そして、移動の間、又は、移動の終了後、仮想オブジェクトの三次元の表現が1つ以上のカメラの視野において識別される所定のプレーン(例えば、仮想オブジェクトの三次元の表現のためのサポートプレーンとして役割を果たすことができる直立壁又は水平床面などの物理表面)に対する所定の位置及び/又は向きにあるように、仮想オブジェクトの三次元の表現は方向変更される。 In some embodiments, the second user interface area overlaps a portion of the first user interface area (eg, a portion of the first user interface area is along the edge of the display or on the display. Shown around the boundaries of). In some embodiments, the second user interface area pops up next to the first user interface area. In some embodiments, the background within the first user interface area is replaced with the content of the camera field of view 5034. In some embodiments, the device is oriented from a first orientation to a second orientation as indicated in the first user interface area (eg, the current orientation of a portion of the physical environment captured in the field of view of one or more cameras). Displays an animated transition showing a virtual object moving and rotating to (eg, as illustrated in FIGS. 5E-5I) (in a predetermined orientation with respect to). For example, an animation displays a two-dimensional representation of a virtual object and displays a first user interface area, to a three-dimensional representation of a virtual object and a second user interface area. Including the transition of. In some embodiments, the three-dimensional representation of a virtual object is a predefined anchor based on the shape and orientation of the virtual object, as shown in a two-dimensional graphical user interface (eg, a first user interface area). Has a flat surface. When transitioning to the augmented reality view (eg, the second user interface area), the three-dimensional representation of the virtual object is from the original position of the virtual object on the display to the new position on the display (eg, the augmented reality view). One three-dimensional representation of a virtual object that has been moved (to another predetermined position in the center or augmented reality view), resized, reoriented, and during or after the move. A predetermined position and a predetermined position with respect to a predetermined plane identified in the field of view of the above camera (eg, a physical surface such as an upright wall or a horizontal floor surface that can serve as a support plane for a three-dimensional representation of a virtual object). The three-dimensional representation of the virtual object is reoriented so that it is / or oriented.

いくつかの実施形態では、第1の基準は、少なくとも所定の時間(例えば、長い押圧の時間閾値)の間に閾値移動量未満で仮想オブジェクトの表現に対応する、タッチ感知面上の場所に接触が維持されるときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(808)。いくつかの実施形態では、接触が別のタイプのジェスチャ(例えば、タップ)を認識するための基準を満たすという判定にしたがって、デバイスはARユーザーインターフェースをトリガさせること以外の別の所定の機能を実行すると共に仮想オブジェクトの表示を維持する。連続的に仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域の少なくとも一部の表示をカメラの視野に置き換えるべきかどうかを判定することは、接触が少なくとも所定の時間の間に閾値移動量未満で仮想オブジェクトの表現に対応するタッチ感知面上の場所に維持されるかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion contacts a location on the touch-sensitive surface that corresponds to the representation of the virtual object with less than the threshold movement amount for at least a predetermined time (eg, a long press time threshold). Includes criteria that are met when is maintained (eg, according to the determination that it is) (808). In some embodiments, the device performs another predetermined function other than triggering the AR user interface, according to the determination that the contact meets the criteria for recognizing another type of gesture (eg, tap). And keep the virtual object visible. Determining whether to continuously display a representation of a virtual object and replace at least a portion of the display in the first user interface area with the field of view of the camera is a threshold movement amount during at least a predetermined time of contact. Allows you to perform several different types of operations in response to input, depending on whether it is maintained in a location on the touch-sensitive surface that corresponds to the representation of the virtual object. Allowing users to perform different types of operations in response to input increases the efficiency with which users can perform these operations, thereby enhancing the usability of the device and, in addition, it. However, it improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1の基準は、接触の特性強度が第1の強度閾値(例えば、軽い押圧強度閾値IT又は深い押圧強度閾値IT)を上回って増加するときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(810)。例えば、図5C~5Fに関して記載されているように、基準は、強度レベルメータ5028によって示されるように、接触5026の特性強度が深い押圧強度閾値ITを上回って増加するときに満たされる。いくつかの実施形態では、接触が別のタイプのジェスチャ(例えば、タップ)を認識するための基準を満たすという判定にしたがって、デバイスはARユーザーインターフェースをトリガさせること以外の別の所定の機能を実行すると共に仮想オブジェクトの表示を維持する。いくつかの実施形態では、第1の基準は、第1の入力がタップ入力でない(例えば、入力が、時間的閾値より大きい接触のタッチダウンとタップ接触のリフトオフの間の経過時間を有する)ことを要求する。連続的に仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域の少なくとも一部の表示をカメラの視野に置き換えるべきかどうかを判定することは、接触の特性強度が第1の強度閾値を上回って増加するかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is when the characteristic strength of the contact increases above the first strength threshold (eg, light press strength threshold ITL or deep press strength threshold IT D ) (eg, for example). Includes criteria that are met (according to the determination that it is) (810). For example, as described for FIGS. 5C-5F, the criteria are met when the characteristic strength of the contact 5026 increases above the deep pressing strength threshold IT D , as indicated by the strength level meter 5028. In some embodiments, the device performs another predetermined function other than triggering the AR user interface, according to the determination that the contact meets the criteria for recognizing another type of gesture (eg, tap). And keep the virtual object visible. In some embodiments, the first criterion is that the first input is not a tap input (eg, the input has an elapsed time between touchdown of a contact greater than a time threshold and liftoff of a tap contact). To request. Determining whether to continuously display the representation of the virtual object and replace at least a portion of the display in the first user interface area with the field of view of the camera is such that the characteristic strength of the contact exceeds the first strength threshold. Allows different types of operations to be performed in response to input, depending on whether it increases or not. Allowing users to perform different types of operations in response to input increases the efficiency with which users can perform these operations, thereby enhancing the usability of the device and, in addition, it. However, it improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1の基準は、接触の移動が所定の移動基準に合うときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(812)(例えば、接触が所定の閾値位置(例えば、第1のユーザーインターフェース領域の境界に対応する位置、接触の元の位置から間隔をおいた閾値距離である位置など)を越えたタッチ感知面にわたって移動する、接触が所定の閾値速度より大きい速度で移動する、接触の移動が押圧入力によって終了する、などである)。いくつかの実施形態では、仮想オブジェクトの表現は接触の移動の初期部分の間、接触によってドラッグされ、そして仮想オブジェクトは、第1の基準が満たされようとしていることを示すために所定の移動の基準を接触の移動が満たそうとするときに、接触とともに移動するのを止め、そして、接触の移動が続いて所定の移動の基準が接触の連続的な移動によって満たされる場合、第2のユーザーインターフェース領域を表示して、拡張現実ビューの範囲内に仮想オブジェクトを表示する遷移が始まる。いくつかの実施形態では、仮想オブジェクトが第1の入力の初期部分の間ドラッグされるときに、オブジェクトサイズ及びビューイング視点は変化せず、そして、いったん拡張現実ビューが表示されて仮想オブジェクトが拡張現実ビューの位置にドロップされると、仮想オブジェクトは、拡張現実ビューの仮想オブジェクトのドロップオフの位置によって表される物理的位置に依存したサイズ及びビューイング視点によって表示される。連続的に仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域の少なくとも一部の表示をカメラの視野に置き換えるべきかどうかを判定することは、接触の移動が所定の移動基準を満たすかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion comprises a criterion that is met when the movement of the contact meets a predetermined movement criterion (eg, according to a determination that it is) (812) (eg, the contact is predetermined). A contact that moves over a touch-sensitive surface beyond a threshold position (eg, a position corresponding to the boundary of a first user interface region, a position that is a threshold distance spaced from the original position of contact, etc.) It moves at a speed higher than the threshold speed, the movement of the contact is terminated by the pressing input, etc.). In some embodiments, the representation of the virtual object is dragged by the contact during the initial part of the movement of the contact, and the virtual object is of a predetermined movement to indicate that the first criterion is about to be met. A second user if the movement of the contact is about to meet the criteria, then stops moving with the contact, and the movement of the contact is followed and the criteria of the given movement is met by the continuous movement of the contact. The transition to display the interface area and display the virtual object within the range of the augmented reality view begins. In some embodiments, when the virtual object is dragged during the initial portion of the first input, the object size and viewing perspective do not change, and once the augmented reality view is displayed, the virtual object expands. When dropped at a position in the real view, the virtual object is displayed with a size and viewing perspective that depends on the physical position represented by the drop-off position of the virtual object in the augmented reality view. Determining whether the representation of the virtual object should be continuously displayed and at least a portion of the display in the first user interface area replaced with the field of view of the camera is whether the movement of the contact meets certain movement criteria. Allows you to perform several different types of operations in response to input. Allowing users to perform different types of operations in response to input increases the efficiency with which users can perform these operations, thereby enhancing the usability of the device and, in addition, it. However, it improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

いくつかの実施形態では、接触によって第1の入力を検出することに応答して、接触による第1の入力が第1の基準を満たしたという判定にしたがって、デバイスは、1つ以上の触知出力生成器167で、触知出力(例えば、図5Fに関して記載されている触知出力5032又は図5AHに関して記載されている触知出力5088)を出力して、第1の入力によって第1の基準が満たされていることを示す(814)。いくつかの実施形態では、触覚は1つ以上のカメラの視野が画面に現れる前に発生する。例えば、触覚は、1つ以上のカメラのアクティブ化及び1つ以上のカメラの視野の次のプレーン検出をトリガする第1の基準が満たされていることを示す。カメラがアクティブ化されて視野が表示に利用可能となるために時間かかるので、触覚は、デバイスが必要な入力を検出したというユーザーに対する非視覚信号としての役割を果たし、デバイスが準備できるとすぐに拡張現実ユーザーインターフェースを提示する。 In some embodiments, the device is tactile one or more according to the determination that the first input by contact meets the first criterion in response to detecting the first input by contact. The output generator 167 outputs a tactile output (eg, a tactile output 5032 described for FIG. 5F or a tactile output 5088 described for FIG. 5AH) and a first reference by a first input. Indicates that is satisfied (814). In some embodiments, tactile sensation occurs before the field of view of one or more cameras appears on the screen. For example, tactile sensation indicates that the first criterion of triggering the activation of one or more cameras and the next plane detection of the field of view of one or more cameras is met. Tactile acts as a non-visual signal to the user that the device has detected the required input, as it takes time for the camera to be activated and the field of view available for display, as soon as the device is ready. Presents an augmented reality user interface.

触知出力を出力して(例えば、ユーザーインターフェースの少なくとも一部の表示をカメラの視野に置き換えるために)基準が満たされていることを示すことは、与えられている入力が基準を満たすことを示すためのフィードバックをユーザー提供する。改良された触知フィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Outputting a tactile output (for example, to replace at least part of the display in the user interface with the field of view of the camera) indicates that the criteria are met that the given input meets the criteria. Provide user feedback to show. Providing improved tactile feedback enhances the usability of the device (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error. ), In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、第1の入力の少なくとも初期部分を(例えば、接触を検出するか、又は第1の基準を満たすことのないそれぞれの所定の基準を満たす接触によって入力を検出するか、又は第1の基準を満たす入力を検出することを含んで)検出することに応答して、デバイスは1つ以上のカメラの視野を分析して、1つ以上のカメラの視野の1つ以上のプレーン(例えば、床面5038、テーブル面5046、壁など)を検出する(816)。いくつかの実施形態では、1つ以上のカメラは第1の入力の少なくとも一部を検出することに応答してアクティブ化され、カメラがアクティブ化されると同時にプレーン検出が同時に起動される。いくつかの実施形態では、1つ以上のカメラの視野の表示は、1つ以上のカメラのアクティブ化の後に(例えば、1つ以上のカメラがアクティブ化される時から少なくとも1つのプレーンがカメラの視野において検出される時まで)遅らされる。いくつかの実施形態では、1つ以上のカメラの視野の表示は1つ以上のカメラがアクティブ化される時に起動され、そしてプレーン検出は、視野がディスプレイに(例えば、第2のユーザーインターフェース領域に)すでに見えたあと、完了する。いくつかの実施形態では、1つ以上のカメラの視野のそれぞれのプレーンを検出した後に、デバイスは、1つ以上のカメラの視野に対するそれぞれのプレーンの相対位置に基づいて、仮想オブジェクトの表現のサイズ及び/又は位置を決定する。いくつかの実施形態では、電子デバイスが移動されるにつれて、仮想オブジェクトの表現のサイズ及び/又は位置は、1つ以上のカメラの視野の位置が(例えば、図5K~5Lに関して記載されているように)それぞれのプレーンに対して変化するにつれて更新される。カメラの視野において検出されるそれぞれのプレーンの位置に基づいて(例えば、カメラの視野に対する仮想オブジェクトのサイズ及び/又は位置の更なるユーザー入力を要求せずに)仮想オブジェクトの表現のサイズ及び/又は位置を決定することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at least the initial portion of the first input (eg, the contact is detected, or the input is detected by a contact that meets each predetermined criterion that does not meet the first criterion, or In response to detection (or by detecting an input that meets the first criterion), the device analyzes the field of view of one or more cameras and one or more of the fields of view of one or more cameras. A plane (eg, floor surface 5038, table surface 5046, wall, etc.) is detected (816). In some embodiments, one or more cameras are activated in response to detecting at least a portion of the first input, and plane detection is triggered simultaneously with the activation of the cameras. In some embodiments, the display of the field of view of one or more cameras is such that at least one plane is of the camera after activation of one or more cameras (eg, from the time one or more cameras are activated). Delayed (until it is detected in the field of view). In some embodiments, the display of the field of view of one or more cameras is triggered when one or more cameras are activated, and plane detection is that the field of view is on the display (eg, in the second user interface area). ) After seeing it already, it's done. In some embodiments, after detecting each plane of the field of view of one or more cameras, the device is the size of the representation of the virtual object based on the relative position of each plane with respect to the field of view of one or more cameras. And / or determine the position. In some embodiments, as the electronic device is moved, the size and / or position of the representation of the virtual object is such that the position of the field of view of one or more cameras is described (eg, with respect to FIGS. 5K-5L). It is updated as it changes for each plane. The size and / or representation of the virtual object based on the position of each plane detected in the camera's field of view (eg, without requiring further user input of the size and / or position of the virtual object with respect to the camera's field of view). Positioning enhances the usability of the device, which in addition reduces power consumption and improves the battery life of the device by allowing users to use the device more quickly and efficiently. do.

いくつかの実施形態では、1つ以上のカメラの視野を分析して1つ以上のカメラの視野の1つ以上のプレーンを検出することは、ディスプレイ上の仮想オブジェクトの表現に対応するタッチ感知面上の場所での接触の検出に応答して(例えば、仮想椅子5020に対応するタッチスクリーン112上の位置での接触5026の検出に応答して)起動される(818)。例えば、カメラのアクティブ化及びカメラの視野のプレーンの検出は、第1の基準が第1の入力によって満たされる前に(例えば、図5Fに関して記載されているように、接触5026の特性強度が深い押圧強度閾値ITを上回って増加する前に)、そして、第2のユーザーインターフェース領域が表示される前に、始まる。仮想オブジェクトとの任意のインタラクションの検出に際してプレーン検出を始めることによって、プレーン検出はARトリガ基準が満たされる前に完了することができ、したがって、ARトリガ基準が第1の入力によって満たされるときに、拡張現実ビューに仮想オブジェクト遷移を見るにあたってユーザーには目に見える遅延がない。分析を起動して仮想オブジェクトの表現の位置での接触の検出に応答して(例えば、カメラの視野の分析を起動するための更なるユーザー入力を必要とせずに)カメラの視野の1つ以上のプレーンを検出することは、デバイスの有効性を強化し、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, analyzing the field of view of one or more cameras to detect one or more planes of the field of view of one or more cameras is a touch-sensitive surface that corresponds to the representation of a virtual object on the display. It is activated in response to the detection of contact at the above location (eg, in response to the detection of contact 5026 at the position on the touch screen 112 corresponding to the virtual chair 5020) (818). For example, camera activation and camera field of view plane detection have a deep characteristic intensity of contact 5026 before the first criterion is met by the first input (eg, as described for FIG. 5F). (Before increasing above and increasing the press intensity threshold IT D ), and before the second user interface area is displayed. By initiating plane detection on the detection of any interaction with a virtual object, plane detection can be completed before the AR trigger criteria are met, and therefore when the AR trigger criteria are met by the first input. There is no visible delay to the user in seeing the virtual object transitions in the augmented reality view. One or more of the camera's fields of view in response to the detection of contact at the position of the representation of the virtual object by invoking the analysis (eg, without requiring further user input to initiate the analysis of the camera's field of view). Detecting the plane of the device enhances the effectiveness of the device, plus it reduces power consumption by allowing users to use the device more quickly and efficiently, and the battery life of the device. To improve.

いくつかの実施形態では、1つ以上のカメラの視野を分析して1つ以上のカメラの視野の1つ以上のプレーンを検出することは、接触によって、第1の基準が第1の入力によって満たされていることを検出することに応答して(例えば、図5Fに関して記載されているように、接触5026の特性強度が深い押圧強度閾値ITを上回って増加することを検出することに応答して)起動される(820)。例えば、カメラのアクティブ化及びカメラの視野のプレーンの検出は、第1の基準が第1の入力によって満たされるときに始まり、そして、カメラの視野は平面検出が完了する前に表示される。ARトリガ基準が満たされる際にカメラアクティブ化及びプレーン検出を始めることによって、カメラ及びプレーン検出は不必要にアクティブ化されずまた続行されず、それがバッテリ電力を節約してバッテリ寿命及びカメラ寿命を延ばす。 In some embodiments, analyzing the field of view of one or more cameras to detect one or more planes of the field of view of one or more cameras is by contact, the first criterion is by the first input. In response to detecting that it is satisfied (eg, as described for FIG. 5F, in response to detecting that the characteristic strength of the contact 5026 increases above the deep pressing strength threshold IT D. Then) is started (820). For example, camera activation and camera field of view plane detection begin when the first criterion is met by the first input, and the camera field of view is displayed before plane detection is complete. By initiating camera activation and plane detection when the AR trigger criteria are met, camera and plane detection is not unnecessarily activated or continued, which saves battery power and saves battery life and camera life. extend.

いくつかの実施形態では、1つ以上のカメラの視野を分析して1つ以上のカメラの視野の1つ以上のプレーンを検出することは、第1の入力の初期部分が第1の基準を満たすことのないプレーン検出トリガ基準を満たすことを検出することに応答して、起動される(822)。例えば、カメラのアクティブ化及びカメラの視野のプレーンの検出は、いくつかの基準(例えば、ARトリガ基準より厳しくない基準)が第1の入力の初期部分によって満たされるときに始まり、そして、カメラの視野は平面検出が完了する前に任意選択的に表示される。接触の検出の際ではなくむしろ特定の基準が満たされた後に、カメラアクティブ化及びプレーン検出を始めることによって、カメラ及びプレーン検出は不必要にアクティブ化されずまた続行されず、それがバッテリ電力を節約してバッテリ寿命及びカメラ寿命を延ばす。ARトリガ基準が満たされる前にカメラアクティブ化及びプレーン検出を始めることによって、ARトリガ基準が第1の入力によって満たされると、拡張現実ビューへの仮想オブジェクト遷移を表示するための遅延(カメラアクティブ化及びプレーン検出による)は減じられる。 In some embodiments, analyzing the field of view of one or more cameras to detect one or more planes of the field of view of one or more cameras is such that the initial part of the first input is the first criterion. It is triggered in response to detecting that the plane detection trigger criteria that do not meet are met (822). For example, camera activation and detection of the plane of the camera's field of view begin when some criteria (eg, criteria that are less stringent than the AR trigger criteria) are met by the initial portion of the first input, and of the camera. The field of view is optionally displayed before the plane detection is complete. By initiating camera activation and plane detection rather than during contact detection, but rather after certain criteria have been met, camera and plane detection is not unnecessarily activated or continued, which consumes battery power. Save money and extend battery life and camera life. Delay (camera activation) to display the virtual object transition to the augmented reality view when the AR trigger criteria are met by the first input by initiating camera activation and plane detection before the AR trigger criteria are met. And by plane detection) is reduced.

いくつかの実施形態では、デバイスは、仮想オブジェクト(例えば、仮想椅子5020)が1つ以上のカメラの視野5034において検出されるそれぞれのプレーンに対する所定の角度(例えば、仮想椅子5020の4本の脚部の下側を床面5038から切り離している距離が無い(又はわずかな距離である)ような)で配向されるように、それぞれの方法で第2のユーザーインターフェース領域に仮想オブジェクトの表現を表示する(824)。例えば、それぞれのプレーンに対する仮想オブジェクトの向き及び/又は位置は、二次元のグラフィカルユーザーインターフェースに示すように、仮想オブジェクトの形状及び向きに基づいて予め定義される(例えば、それぞれのプレーンは拡張現実ビューの仮想オブジェクトの三次元表現のための支持面として役割を果たすことができる水平物理表面(例えば、花瓶をサポートする水平テーブル面)に対応するか、又は、それぞれのプレーンは、拡張現実ビューの仮想オブジェクトの三次元表現のための支持面として役割を果たすことができる垂直物理表面(例えば、仮想画枠を懸下する水平壁)である)。いくつかの実施形態では、仮想オブジェクトの向き及び/又は位置は、仮想オブジェクトのそれぞれの表面又は境界(例えば、底面、底部境界点、側面及び/又は側部境界点)によって画定される。いくつかの実施形態では、それぞれのプレーンに対応するアンカー平面は、仮想オブジェクトの一組の特性の中の1つの特性であり、仮想オブジェクトが表すことになっている物理的オブジェクトの性質にしたがって指定される。いくつかの実施形態では、仮想オブジェクトは、1つ以上のカメラの視野において検出される複数のプレーンに対して所定の向き及び/又は位置に配置される(例えば、仮想オブジェクトの複数のそれぞれの側は、カメラの視野において検出されるそれぞれのプレーンと関連付けられる)。いくつかの実施形態では、仮想オブジェクトのために予め定義される向き及び/又は位置が仮想オブジェクトの横下部プレーンに対して定められる場合、仮想オブジェクトの下部プレーンは、カメラの視野において検出される床平面に表示される(例えば、仮想オブジェクトの水平下部プレーンは、床平面から距離ゼロで床平面と平行である)。いくつかの実施形態では、仮想オブジェクトのために予め定義される向き及び/又は位置が仮想オブジェクトの垂直バックプレーンに対して定められる場合、仮想オブジェクトの背面は、1つ以上のカメラの視野において検出される壁面に対して配置される(例えば、仮想オブジェクトの垂直バックプレーンは、壁面から距離ゼロで壁面と平行である)。いくつかの実施形態では、仮想オブジェクトは、それぞれのプレーンに対して固定の距離かつ/又はそれぞれのプレーンに対してゼロ又は直角以外の角度で配置される。カメラの視野において検出されるプレーンに対して(例えば、カメラの視野の平面に対して仮想オブジェクトを表示するための更なるユーザー入力を必要とせずに)仮想オブジェクトの表現を表示することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device has four legs of a virtual object (eg, virtual chair 5020) at a predetermined angle to each plane in which a virtual object (eg, virtual chair 5020) is detected in the field of view 5034 of one or more cameras. Each method displays a representation of the virtual object in the second user interface area so that the underside of the section is oriented so that it is oriented at no distance (or at a slight distance) that separates it from the floor surface 5038. (824). For example, the orientation and / or position of a virtual object with respect to each plane is predefined based on the shape and orientation of the virtual object, as shown in the two-dimensional graphical user interface (eg, each plane is an augmented reality view). Corresponds to a horizontal physical surface (eg, a horizontal table surface that supports a vase) that can serve as a support surface for a three-dimensional representation of a virtual object in, or each plane is a virtual augmented reality view. A vertical physical surface that can serve as a support surface for a three-dimensional representation of an object (eg, a horizontal wall that suspends a virtual frame). In some embodiments, the orientation and / or position of the virtual object is defined by the respective surface or boundary of the virtual object (eg, bottom, bottom boundary points, side and / or side boundary points). In some embodiments, the anchor plane corresponding to each plane is one of the properties of a set of virtual objects and is designated according to the properties of the physical object that the virtual object is supposed to represent. Will be done. In some embodiments, the virtual object is placed in a predetermined orientation and / or position with respect to a plurality of planes detected in the field of view of one or more cameras (eg, each side of the plurality of virtual objects). Is associated with each plane detected in the field of view of the camera). In some embodiments, if the predefined orientation and / or position for the virtual object is defined with respect to the horizontal lower plane of the virtual object, the lower plane of the virtual object is the floor detected in the field of view of the camera. Displayed on a plane (for example, the horizontal lower plane of a virtual object is parallel to the floor plane at zero distance from the floor plane). In some embodiments, the back of a virtual object is detected in the field of one or more cameras if the predefined orientation and / or position for the virtual object is defined with respect to the vertical backplane of the virtual object. (For example, the vertical backplane of a virtual object is parallel to the wall at zero distance from the wall). In some embodiments, the virtual objects are placed at a fixed distance to each plane and / or at an angle other than zero or right angle to each plane. Displaying a representation of a virtual object to a plane detected in the camera's field of view (eg, without additional user input to display the virtual object to the plane of the camera's field of view) is a device. In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野のそれぞれのプレーンを検出することに応答して、デバイスは、1つ以上の触知出力生成器167で、触知出力を出力して、1つ以上のカメラの視野のそれぞれのプレーンの検出を示す(826)。いくつかの実施形態では、それぞれの触知出力は、カメラの視野において検出される各プレーン(例えば、床面5038及び/又はテーブル面5046)に発生する。いくつかの実施形態では、プレーン検出が完了するときに、触知出力は発生する。いくつかの実施形態では、触知出力には、第2のユーザーインターフェース部に示される視野の視野平面の視覚的な指示(例えば、検出された視野平面の瞬間的な強調表示)が伴う。触知出力を出力してカメラの視野におけるプレーンの検出を示すことは、ユーザーにプレーンが検出されたことを示すためのフィードバックを提供する。改良された触知フィードバックを提供することはデバイスの操作性を高め(例えば、ユーザーが適切な入力を提供するのを支援しかつ仮想オブジェクトを配置するための必要な追加入力を減らすことによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting each plane of the field of view of one or more cameras, the device outputs a tactile output with one or more tactile output generators 167. The detection of each plane of the field of view of one or more cameras is shown (826). In some embodiments, each tactile output is generated on each plane (eg, floor surface 5038 and / or table surface 5046) detected in the field of view of the camera. In some embodiments, tactile output occurs when plane detection is complete. In some embodiments, the tactile output is accompanied by a visual indication of the visual field plane of the visual field shown in the second user interface unit (eg, a momentary highlighting of the detected visual field plane). Outputting a tactile output to indicate the detection of a plane in the camera's field of view provides the user with feedback to indicate that the plane has been detected. Providing improved tactile feedback enhances device usability (eg, by helping users provide the right input and reducing the additional input required to place virtual objects). In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替えると共に、デバイスは、仮想オブジェクトの表現が第2のユーザーインターフェース領域に遷移する(例えば、移動し、回転し、サイズ変更し、及び/又は異なるスタイルに再描画されるなど)につれて、それぞれのプレーンに対して所定の位置に(例えば、図5F~5Iで図示されるように)、アニメーションを表示し(828)、そして、それぞれのプレーンに対して所定の角度で仮想オブジェクトの表現を表示することと連動して(例えば、それぞれのプレーンに対して所定の向き及び/又は位置で、そして拡張現実ビューに表示される最終状態に達するそのサイズ、回転角及び外観で)、デバイスは、1つ以上の触知出力生成器167で触知出力を出力して、第2のユーザーインターフェース領域のそれぞれのプレーンに対して所定の角度で仮想オブジェクトの表示を示す。例えば、図5Iで図示するように、デバイスは、床面5038に対して所定の角度で仮想椅子5020を表示することと連動して、触知出力5036を出力する。いくつかの実施形態では、発生する触知出力は、仮想オブジェクト又は仮想オブジェクトによって表される物理オブジェクトの、重量(例えば、重い対軽い)、材料(例えば、金属、綿、木、大理石、液体、ゴム、ガラス)、サイズ(例えば、大きい対小さい)、形状(例えば、薄い対厚い、長い対短い、丸い対とがったなど)、弾性(例えば、弾力あり対固い)、性質(例えば、陽気対厳粛、穏やか対力強いなど)及び他の特性を反映している特徴(例えば、振動数、サイクル数、変調、振幅、付随する音声波など)を有するように、構成される。例えば、触知出力は図4F~4Kで図示される触知出力パターンの1つ以上を使用する。いくつかの実施形態では、1つ以上の特性に対する経時的な1つ以上の変化を含む予め設定されたプロフィールは仮想オブジェクト(例えば、絵文字)に対応する。例えば、「よく弾む」触知出力プロフィールは、「にこにこした」絵文字仮想オブジェクトのために提供される。触知出力を出力してそれぞれのプレーンに対して仮想オブジェクトの表現の配置を示すことは、ユーザーにフィードバックを提供して、仮想オブジェクトの表現がそれぞれのプレーンに対して自動的に配置されたことを示す。改良された触知フィードバックを提供することはデバイスの操作性を高め(例えば、ユーザーが適切な入力を提供するのを支援しかつ仮想オブジェクトを配置するための必要な追加入力を減らすことによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device switches from displaying the first user interface area to displaying the second user interface area, and the device transitions the representation of the virtual object to the second user interface area ( As you move, rotate, resize, and / or redraw in different styles, for example, in place with respect to each plane (eg, as illustrated in FIGS. 5F-5I). , Displaying an animation (828), and in conjunction with displaying a representation of a virtual object at a given angle to each plane (eg, in a given orientation and / or position with respect to each plane). , And in its size, rotation angle and appearance to reach the final state displayed in the augmented reality view), the device outputs a tactile output with one or more tactile output generators 167 and a second user interface. Shows the display of virtual objects at a given angle to each plane in the area. For example, as illustrated in FIG. 5I, the device outputs a tactile output 5036 in conjunction with displaying the virtual chair 5020 at a predetermined angle with respect to the floor surface 5038. In some embodiments, the tactile output generated is the weight (eg, heavy vs. light), material (eg, metal, cotton, wood, marble, liquid, of a virtual object or physical object represented by the virtual object). Rubber, glass), size (eg large vs small), shape (eg thin vs thick, long vs short, round pair pointed, etc.), elasticity (eg elastic vs hard), properties (eg cheerful vs solemn) , Gentle vs. strong, etc.) and features that reflect other characteristics (eg, frequency, number of cycles, modulation, amplitude, accompanying audio waves, etc.). For example, the tactile output uses one or more of the tactile output patterns illustrated in FIGS. 4F-4K. In some embodiments, a preset profile that includes one or more changes over time to one or more properties corresponds to a virtual object (eg, an emoji). For example, a "bounce" tactile output profile is provided for a "smiling" emoji virtual object. Outputting a tactile output to show the placement of the virtual object's representation for each plane provided feedback to the user that the virtual object's representation was automatically placed for each plane. Is shown. Providing improved tactile feedback enhances device usability (eg, by helping users provide the right input and reducing the additional input required to place virtual objects). In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態(830)において、触知出力は、仮想オブジェクトの特性(例えば、サイズ、密度、質量及び/又は材料などの擬似的な物理的特性)に対応する触知出力プロフィールを有する。いくつかの実施形態では、触知出力プロフィールは、仮想オブジェクトの1つ以上の特性(例えば、重量、材料、サイズ、形状及び/又は弾力)に基づいて変化する特性(例えば、周波数、サイクル数、変調、振幅、付随する音声波など)を有する。例えば、触知出力は図4F~4Kで図示される触知出力パターンの1つ以上を使用する。いくつかの実施形態では、触知出力の振幅及び/又は期間は、仮想オブジェクトのサイズ、重量及び/又は質量が増加するにつれて増加する。いくつかの実施形態では、触知出力パターンは、仮想オブジェクトが構成される仮想材料に基づいて選択される。仮想オブジェクトの特性に対応するプロフィールを有する触知出力を出力することは、ユーザーにフィードバックを提供して仮想オブジェクトの特性に関する情報を示す。改良された触知フィードバックを提供することはデバイスの操作性を高め(例えば、ユーザーが適切な入力を提供するのを支援しかつ仮想オブジェクトを配置するための必要な追加入力を減らして、特性に関する表示された情報とのユーザーインターフェースを混乱させることなくユーザーが仮想オブジェクトの特性を知覚することを可能にする感覚情報を提供することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments (830), the tactile output has a tactile output profile that corresponds to the properties of the virtual object (eg, pseudo-physical properties such as size, density, mass and / or material). In some embodiments, the tactile output profile varies based on one or more properties of the virtual object (eg, weight, material, size, shape and / or elasticity) (eg, frequency, number of cycles, etc.). Modulation, amplitude, accompanying audio waves, etc.). For example, the tactile output uses one or more of the tactile output patterns illustrated in FIGS. 4F-4K. In some embodiments, the amplitude and / or duration of the tactile output increases as the size, weight and / or mass of the virtual object increases. In some embodiments, the tactile output pattern is selected based on the virtual material in which the virtual object is composed. Outputting a tactile output with a profile corresponding to a virtual object's characteristics provides feedback to the user and provides information about the virtual object's characteristics. Providing improved tactile feedback enhances the usability of the device (eg, assists the user in providing the appropriate input and reduces the additional input required to place the virtual object, with respect to the characteristics. By providing sensory information that allows the user to perceive the characteristics of the virtual object without confusing the user interface with the displayed information), in addition it allows the user to make the device faster and more efficient. Reduce power usage and improve device battery life by allowing it to be used.

いくつかの実施形態において、第2のユーザーインターフェース領域の仮想オブジェクトの表現を調整すると共に、デバイスは、(図5K~5Lで図示するように)1つ以上のカメラの視野5034を調整するデバイスの移動(例えば、デバイスの横方向の移動及び/又は回転)を検出し(832)、そして、デバイスの移動を検出することに応答して、デバイスは、第2のユーザーインターフェース領域の仮想オブジェクト(例えば、仮想椅子5020)の表現を、仮想オブジェクトと1つ以上のカメラの視野のそれぞれのプレーン(例えば、床面5038)の間の固定された空間関係(例えば、向き及び/又は位置)にしたがって、1つ以上のカメラの視野が調整されるにつれて、調整する(例えば、仮想オブジェクトは、仮想オブジェクトの表現とプレーンの間の固定角が維持される(例えば、仮想オブジェクトがプレーン上の固定位置にとどまるか又は視野平面に沿って転がるように見える)ような向き及び位置によってディスプレイ上に表示される)。例えば、図5K~5Lで、カメラの視野5034を含む第2のユーザーインターフェース領域の仮想椅子5020は、デバイス100が移動されるにつれて、床面5038に対して固定された向き及び位置を維持する。いくつかの実施形態では、仮想オブジェクトは周囲の物理的環境5002に対して静止していてかつ変化しないように見え、すなわち、仮想オブジェクトの表現は、デバイスの位置及び/又は向きが変化するにつれて、デバイスが周囲の物理的環境に対して移動すると1つ以上のカメラの視野が変化するので、ディスプレイ上のサイズ、位置及び/又は向きが変化する。仮想オブジェクトとそれぞれのプレーンの間の固定関係にしたがって(例えば、それぞれのプレーンに対して仮想オブジェクトの位置を維持するための更なるユーザー入力を必要とせずに)仮想オブジェクトの表現を調整することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device adjusts the representation of the virtual object in the second user interface area, and the device adjusts the field of view 5034 of one or more cameras (as illustrated in FIGS. 5K-5L). Detecting movement (eg, lateral movement and / or rotation of the device) (832), and in response to detecting device movement, the device is a virtual object in a second user interface area (eg, for example). , Virtual chair 5020), according to a fixed spatial relationship (eg, orientation and / or position) between the virtual object and each plane of the field of view of one or more cameras (eg, floor 5038). As the field of view of one or more cameras is adjusted (eg, the virtual object maintains a fixed angle between the representation of the virtual object and the plane (eg, the virtual object stays in a fixed position on the plane). Or appear on the display in such an orientation and position that it appears to roll along the plane of the field of view). For example, in FIGS. 5K-5L, the virtual chair 5020 in the second user interface area, including the camera field of view 5034, maintains a fixed orientation and position with respect to the floor surface 5038 as the device 100 is moved. In some embodiments, the virtual object appears stationary and unchanged with respect to the surrounding physical environment 5002, i.e., the representation of the virtual object changes as the position and / or orientation of the device changes. As the device moves relative to the surrounding physical environment, the field of view of one or more cameras changes, thus changing its size, position, and / or orientation on the display. Adjusting the representation of a virtual object according to a fixed relationship between the virtual object and each plane (eg, without additional user input to maintain the position of the virtual object with respect to each plane) is possible. It enhances the usability of the device, which in addition reduces power consumption and improves the battery life of the device by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、(例えば、第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることに対応するときに、)デバイスは、仮想オブジェクト(例えば、仮想椅子5020)の表現が連続的に表示されるにつれて、(例えば、5F~5Iで図示するように)アニメーション(例えば、移動、1つ以上の軸の周りの回転及び/又はスケーリング)を表示すると共に第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える(834)。例えば、アニメーションは、仮想オブジェクトの二次元の表現を表示すると共に第1のユーザーインターフェース領域を表示することから、仮想オブジェクトの三次元の表現を表示すると共に第2のユーザーインターフェース領域を表示することへの遷移を含む。いくつかの実施形態では、仮想オブジェクトの三次元の表現は、1つ以上のカメラの視野において捕えられる物理的環境の一部の現在の向きに対して予め定義される向きを有する。いくつかの実施形態では、拡張現実ビューに遷移するときに、仮想オブジェクトの表現はディスプレイ上の初期位置からディスプレイ上の新しい位置(例えば、拡張現実ビューの中央又は拡張現実ビューの別の所定の位置)まで移動され、サイズ変更され、方向変更されて、移動の間、又は、移動の終了後、仮想オブジェクトがカメラの視野において検出されるプレーン(例えば、仮想オブジェクトの表現を支持することができる直立壁又は水平床面などの物理表面)に対して固定角であるように、方向変更される。いくつかの実施形態では、アニメーション化された遷移が発生するにつれて、仮想オブジェクトの照明及び/又は仮想オブジェクトによる影投射は(例えば、1つ以上のカメラの視野において検出される環境照明と一致するように)調整される。仮想オブジェクトの表現としてアニメーションを表示すると共に第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域に切り替えることは、第1の入力が第1の基準を満たすことを示すためのフィードバックをユーザーに提供する。改良されたフィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device is a virtual object (eg, when corresponding to replacing at least a portion of the display in the first user interface area with a representation of the field of view of one or more cameras). As the representation of the virtual chair 5020) is displayed continuously, it displays an animation (eg, moving, rotating and / or scaling around one or more axes) (eg, as illustrated at 5F-5I). It switches from displaying the first user interface area to displaying the second user interface area (834). For example, an animation displays a two-dimensional representation of a virtual object and displays a first user interface area, to a three-dimensional representation of a virtual object and a second user interface area. Including the transition of. In some embodiments, the three-dimensional representation of the virtual object has a predefined orientation with respect to the current orientation of part of the physical environment captured in the field of view of one or more cameras. In some embodiments, when transitioning to an augmented reality view, the representation of the virtual object is from an initial position on the display to a new position on the display (eg, the center of the augmented reality view or another predetermined position in the augmented reality view). ), Resized, reoriented, and upright where the virtual object is detected in the camera's field of view during or after the move (eg, can support the representation of the virtual object). It is reoriented so that it has a fixed angle with respect to a physical surface such as a wall or horizontal floor. In some embodiments, as the animated transition occurs, the lighting of the virtual object and / or the shadow projection by the virtual object (eg, to match the ambient lighting detected in the field of view of one or more cameras). To) will be adjusted. Switching from displaying the first user interface area to the second user interface area while displaying the animation as a representation of the virtual object provides feedback to show that the first input meets the first criterion. Provide to users. Providing improved feedback enhances the usability of the device (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、ディスプレイ上に第2のユーザーインターフェース領域を表示すると共に、デバイスは第2の接触(例えば、接触5040)によって第2の入力を検出し(836)、そこにおいて、第2の入力は(任意選択的に、仮想オブジェクトの表現を選択するための第2の接触による押圧又はタッチ入力、及び)(例えば、図5N~5Pで図示するように)ディスプレイにわたる第1のパスに沿った第2の接触の移動を含み、そして、第2の接触によって第2の入力を検出することに応答して、デバイスは、第1のパスに対応する(例えば、同じものであるか、又はそれに拘束された)2本目のパスに沿った第2のユーザーインターフェース領域に仮想オブジェクト(例えば、仮想椅子5020)の表現を移動する。いくつかの実施形態では、第2の接触は第1の接触とは異なり、第1の接触のリフトオフの後に(例えば、(図5C~5Fの接触5026のリフトオフの後に検出される)図5N~5Pの接触5040で示すように)検出される。いくつかの実施形態では、第2の接触は、(例えば、(ARトリガ基準を満たして、その後、タッチスクリーン112を横切って仮想ランプ5084を移動する)接触5086による入力で示すように)タッチ感知面上で連続的に維持される第1の接触と同じである。いくつかの実施形態では、仮想オブジェクト上のスワイプ入力は仮想オブジェクトを回転させると共に、仮想オブジェクトの移動は任意選択的にカメラの視野のプレーンによって拘束される(例えば、スワイプ入力は、カメラの視野の床面上の椅子の表現を回転させる)。入力を検出することに応答して仮想オブジェクトの表現を移動することは、仮想オブジェクトの表示された位置がユーザー入力に応答して移動可能なことを示すためのフィードバックをユーザーに提供する。改良されたフィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects a second input by a second contact (eg, contact 5040) while displaying a second user interface area on the display (836), where the second. The input is (optionally, a second touch press or touch input to select a representation of the virtual object, and) to the first path across the display (eg, as illustrated in FIGS. 5N-5P). The device corresponds to the first path (eg, the same or the same, in response to detecting the second input by the second contact, including the movement of the second contact along. Move the representation of the virtual object (eg, virtual chair 5020) to the second user interface area along the second path (or constrained by it). In some embodiments, the second contact is different from the first contact after the lift-off of the first contact (eg, detected after the lift-off of the contact 5026 of FIGS. 5C-5F). (As shown by 5P contact 5040) is detected. In some embodiments, the second contact is touch-sensitive (eg, as indicated by input by contact 5086 (eg, meeting the AR trigger criteria and then moving the virtual lamp 5084 across the touch screen 112)). It is the same as the first contact that is continuously maintained on the surface. In some embodiments, the swipe input on the virtual object rotates the virtual object, and the movement of the virtual object is optionally constrained by the plane of the camera's field of view (eg, the swipe input is in the camera's field of view. Rotate the representation of the chair on the floor). Moving the representation of a virtual object in response to detecting input provides the user with feedback to indicate that the displayed position of the virtual object can be moved in response to user input. Providing improved feedback enhances the usability of the device (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、仮想オブジェクトの表現が接触の移動及び仮想オブジェクトに対応するそれぞれのプレーンに基づいて2本目のパスに沿って移動するにつれて、デバイスは仮想オブジェクトの表現のサイズを(例えば、視野の仮想オブジェクトの正確な視点を維持するために、仮想オブジェクトの表現からユーザーまでの仮想距離に基づいて)調整する(838)。例えば、図5N~5Pで、仮想椅子5020のサイズは、仮想椅子が、デバイス100から離れてかつテーブル5004の方へカメラの視野5034の中により深く移動するにつれて、減少する。仮想オブジェクトの表現が接触の移動及び仮想オブジェクトに対応するプレーンに基づいて第2のパスに沿って移動するにつれて、(例えば、仮想オブジェクトの表現をカメラの視野の環境に対して現実的なサイズに維持するように仮想オブジェクトの表現のサイズを調整するための更なるユーザー入力必要とせずに)仮想オブジェクトの表現のサイズを調整することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as the representation of the virtual object moves along the second path based on the movement of the contact and the respective plane corresponding to the virtual object, the device adjusts the size of the representation of the virtual object (eg,). Adjust (based on the virtual distance from the representation of the virtual object to the user) to maintain an accurate view of the virtual object in the field of view (838). For example, in FIGS. 5N-5P, the size of the virtual chair 5020 decreases as the virtual chair moves away from the device 100 and deeper into the camera's field of view 5034 towards the table 5004. As the representation of the virtual object moves along the second path based on the movement of the contact and the plane corresponding to the virtual object (eg, the representation of the virtual object becomes a realistic size for the environment of the camera's field of view). Adjusting the size of a virtual object's representation (without requiring additional user input to resize the virtual object's representation to maintain) enhances the usability of the device, plus it allows the user to It reduces power consumption and improves device battery life by allowing the device to be used more quickly and efficiently.

いくつかの実施形態では、仮想オブジェクトの表現が(例えば、図5AI~5ALで図示するように)第2のパスに沿って移動するにつれて、デバイスは仮想オブジェクト(例えば、仮想ランプ5084)の表現の第1のサイズを維持し(840)、デバイスは第2の接触(例えば、図5AL~午前5時で図示するように、第2の接触のリフトオフを検出することを含む)によって第2の入力の終了を検出し、そして、第2の接触によって第2の入力の終了を検出することに応答して、デバイスは第2のユーザーインターフェース領域のドロップオフの位置(例えば、テーブル面5046に)に仮想オブジェクトの表現を配置して、第1のサイズとは異なる第2のサイズで第2のユーザーインターフェース領域のドロップオフの位置に仮想オブジェクトの表現を表示する(例えば、図5AMの仮想ランプ5084のサイズは、接触5086による入力の終了の後、接触5086による入力の終了の前の図5ALの仮想ランプ5084のサイズとは異なる)。例えば、接触によってドラッグされている間、オブジェクトはそのサイズ及びビューイング視点を変えず、そして、オブジェクトが拡張現実ビューのその最終位置下ろされると、オブジェクトはカメラの視野に表示される仮想オブジェクトのドロップオフの位置に対応する物理的環境の物理的位置に基づいて決定されるサイズ及びビューイング視点によって表示され、それにより、ドロップオフの位置がカメラの視野の第1の位置であるという決定にしたがって、オブジェクトは第2のサイズを有する、そして、ドロップオフの位置がカメラの視野の第2の位置であるという決定にしたがって、オブジェクトは第2のサイズと異なる第3のサイズを有し、そこにおいて、第2及び第3のサイズは1つ以上のカメラからのドロップオフの位置の距離に基づいて選択される。仮想オブジェクトを移動する第2の入力の終了の検出に応答して、(例えば、仮想オブジェクトをカメラの視野の環境に対して現実的なサイズに維持するように仮想オブジェクトのサイズを調整するための更なるユーザー入力必要とせずに)仮想オブジェクトの表現を変更されたサイズで表示することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as the representation of the virtual object moves along the second path (eg, as illustrated in FIGS. 5AI-5AL), the device is a representation of the virtual object (eg, virtual lamp 5084). Maintaining the first size (840), the device receives a second input by a second contact (eg, including detecting lift-off of the second contact, as illustrated in FIGS. 5AL-5am). In response to detecting the end of the second input and detecting the end of the second input by the second contact, the device is in the drop-off position of the second user interface area (eg, on the table surface 5046). Place a representation of the virtual object to display the representation of the virtual object at a drop-off position in the second user interface area with a second size different from the first size (eg, virtual lamp 5084 in FIG. 5AM). The size is different from the size of the virtual lamp 5084 in FIG. 5AL after the end of the input by the contact 5086 and before the end of the input by the contact 5086). For example, while being dragged by contact, the object does not change its size and viewing point of view, and when the object is lowered to its final position in the augmented reality view, the object drops a virtual object that appears in the camera's field of view. Displayed by size and viewing viewpoint determined based on the physical position of the physical environment corresponding to the off position, thereby according to the determination that the drop off position is the first position in the camera's field of view. , The object has a second size, and according to the determination that the drop-off position is the second position in the camera's field of view, the object has a third size different from the second size, where. The second and third sizes are selected based on the distance of the drop-off position from one or more cameras. To resize a virtual object in response to detecting the end of a second input moving the virtual object (eg, to keep the virtual object realistic in size for the environment of the camera's field of view). Displaying the representation of virtual objects in a modified size (without the need for additional user input) enhances the usability of the device, which in addition allows users to use the device more quickly and efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、ディスプレイにわたる第1のパスに沿った第2の接触の移動が第2の基準を満たす(例えば、第1のパスの終わりに、接触は、ディスプレイの端(例えば、下端、上端、又は側端)の閾値距離内若しくはそれの外側か、又は第2のユーザーインターフェース領域の端にある)という判定にしたがって、デバイス(842)は、1つ以上のカメラの視野の表現を含んでいる第2のユーザーインターフェース領域を表示することをやめ、そして、仮想オブジェクトの表現を有する(完全な)第1のユーザーインターフェース領域を再表示する(例えば、第1のユーザーインターフェース領域の一部が以前第2のユーザーインターフェース領域と並行して表示されている場合、第2のユーザーインターフェース領域がもはや表示されなくなった後に、デバイスは完全な第1のユーザーインターフェース領域を表示する)。例えば、図5V~5Xで図示するように、タッチスクリーン112の端に仮想椅子5054をドラッグする接触5054の移動に応答して、カメラの視野5034は表示されなくなり、図5Y~5ADで図示するように、完全なメッセージ送信ユーザーインターフェース5008が再表示される。いくつかの実施形態では、接触がディスプレイの端又は第2のユーザーインターフェース領域の端に接近するにつれて、第2のユーザーインターフェース領域がフェードアウトし(例えば、図5X~5Yで図示されるように)、かつ/又は、第1のユーザーインターフェース領域(の表示されないか又はブロックされる部分)がフェードインする(例えば、図5Z~5AAで図示されるように)。いくつかの実施形態では、非ARビュー(例えば、第1のユーザーインターフェース領域)からARビュー(例えば、第2のユーザーインターフェース領域)まで遷移するためのジェスチャ及びARビューから非ARビューまで遷移するためのジェスチャは、同一である。例えば、現在表示されているユーザーインターフェースの閾値位置を越えた(例えば、現在表示されているユーザーインターフェース領域の境界の閾値距離の範囲内、又は、現在表示されているユーザーインターフェース領域の境界を越えた)仮想オブジェクト上のドラッグジェスチャは、現在表示されているユーザーインターフェース領域から相手方ユーザーインターフェース領域への(例えば、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することへの、あるいは、第2のユーザーインターフェース領域を表示することから第1のユーザーインターフェース領域を表示することへの)遷移を引き起こす。いくつかの実施形態では、視覚的な指示(例えば、現在表示されているユーザーインターフェース領域をフェードアウトさせて、相手方ユーザーインターフェースをフェードインさせる)は、第1/第2の基準が満たされる前に表示され、そして、入力が続いて、かつ入力(例えば、接触のリフトオフ)の終了が検出される前に第1/第2の基準が満たされない場合はその逆にできる。入力基準を満たす入力を検出することに応答して第1のユーザーインターフェースを再表示することは、第2のユーザーインターフェースを追加的な表示された制御(例えば、第2のユーザーインターフェースから第1のユーザーインターフェースを表示するための制御)で混乱させることのない追加的な制御オプションを提供する。第2のユーザーインターフェースを追加的な表示された制御で混乱させることのない追加的な制御オプションを提供することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the movement of the second contact along the first path across the display meets the second criterion (eg, at the end of the first pass, the contact is at the edge of the display (eg, the bottom edge). , Top end, or side edge) within or outside the threshold distance, or at the edge of the second user interface area), the device (842) represents the field of view of one or more cameras. Stop displaying the second user interface area it contains and redisplay the (complete) first user interface area with the representation of the virtual object (eg, part of the first user interface area). If was previously displayed in parallel with the second user interface area, the device will display the full first user interface area after the second user interface area is no longer displayed). For example, as illustrated in FIGS. 5V-5X, the camera field of view 5034 disappears in response to the movement of the contact 5054 dragging the virtual chair 5054 to the edge of the touch screen 112, as illustrated in FIGS. 5Y-5AD. The complete message sending user interface 5008 is redisplayed. In some embodiments, the second user interface area fades out (eg, as illustrated in FIGS. 5X-5Y) as the contact approaches the edge of the display or the edge of the second user interface area. And / or the first user interface area (the invisible or blocked portion) fades in (eg, as illustrated in FIGS. 5Z-5AA). In some embodiments, gestures for transitioning from a non-AR view (eg, a first user interface region) to an AR view (eg, a second user interface region) and for transitioning from an AR view to a non-AR view. Gestures are the same. For example, the threshold position of the currently displayed user interface has been exceeded (for example, within the threshold distance of the boundary of the currently displayed user interface area, or beyond the boundary of the currently displayed user interface area. The drag gesture on the virtual object is from the currently displayed user interface area to the other user interface area (eg, from displaying the first user interface area to displaying the second user interface area). Or, it causes a transition (from displaying the second user interface area to displaying the first user interface area). In some embodiments, visual instructions (eg, fading out the currently displayed user interface area and fading in the other user interface) are displayed before the first and second criteria are met. And vice versa if the input continues and the first and second criteria are not met before the end of the input (eg, lift-off of contact) is detected. Redisplaying the first user interface in response to detecting an input that meets the input criteria is an additional displayed control of the second user interface (eg, from the second user interface to the first. Provides additional control options that are not confusing (controls for displaying the user interface). Providing additional control options that do not confuse the second user interface with additional displayed controls enhances the usability of the device, which in addition allows the user to make the device faster and more efficient. Reduce power consumption and improve device battery life by allowing it to be used.

いくつかの実施形態では、第1のユーザーインターフェース領域を再表示することに対応する時間に、デバイスは、第2のユーザーインターフェース領域に仮想オブジェクトの表現を表示することから第1のユーザーインターフェース領域に仮想オブジェクトの表現を表示する(例えば、図5AB~5ADの仮想椅子5020のアニメーションで図示するように)ことへのアニメーション化された遷移(例えば、移動、1つ以上の軸のまわりの回転及び/又はスケーリング)を表示する(844)。第2のユーザーインターフェースの仮想オブジェクトの表現を表示することから第1のユーザーインターフェースの仮想オブジェクトの表現を表示することへのアニメーション化された遷移を(例えば、更にユーザー入力が第1のユーザーインターフェースの仮想オブジェクトを再位置付けすることを必要とせずに)表示することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at the time corresponding to redisplaying the first user interface area, the device displays a representation of the virtual object in the second user interface area, thus in the first user interface area. An animated transition (eg, movement, rotation around one or more axes, and / /) to display a representation of a virtual object (eg, as illustrated in the animation of virtual chair 5020 in FIGS. 5AB-5AD). Or scaling) is displayed (844). An animated transition from displaying the representation of the virtual object of the second user interface to displaying the representation of the virtual object of the first user interface (eg, further user input is of the first user interface). Displaying (without the need to reposition the virtual object) enhances the usability of the device, plus it allows users to use the device more quickly and efficiently. And improve the battery life of the device.

いくつかの実施形態では、第2の接触が第1のパスに沿って移動するにつれて、デバイスは、接触の現在位置に対応する1つ以上のカメラの視野において識別される1つ以上のそれぞれのプレーンの外観を変える(例えば、1つ以上のプレーンの外観を強調し、マークし、輪郭を描き、かつ/又は、さもなければ視覚的に変える)(846)。例えば、接触5042が図5O~5Pの矢印5042及び5044で示すようにパスに沿って仮想椅子5020をドラッグするにつれて、床面5038は強調される(例えば、接触5042の移動の前の図5Mと比較して)。いくつかの実施形態では、接触がカメラの視野において検出される第1のプレーンに対応する位置にあるという判定にしたがって、第1のプレーンが強調される。接触がカメラの視野で検出される第2のプレーンに対応する位置へ(例えば、図5S~5Uで図示するように)移動したという判定にしたがって、第1のプレーン(例えば、床面5038)は強調されなくなり、そして第2のプレーン(例えば、テーブル面5046)が強調される。いくつかの実施形態では、複数のプレーンが同時に強調される。いくつかの実施形態では、複数の視覚的に変更されたプレーンの第1のプレーンは、他のプレーンが視覚的に変えられる方法とは異なった方法で視覚的に変更されて、接触が第1のプレーンに対応する位置にあることを示す。カメラの視野において識別される1つ以上のそれぞれのプレーンの外観を変えることは、プレーン(例えば、これに対して仮想オブジェクトを配置することができる)が識別されたことを示すためのフィードバックをユーザーに提供する。改良された視覚フィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as the second contact moves along the first path, the device is identified in the field of view of the one or more cameras corresponding to the current position of the contact, respectively. Change the appearance of planes (eg, highlight, mark, outline, and / or otherwise visually change the appearance of one or more planes) (846). For example, as the contact 5042 drags the virtual chair 5020 along the path as shown by arrows 5042 and 5044 in FIGS. 5O-5P, the floor surface 5038 is emphasized (eg, with FIG. 5M prior to the movement of the contact 5042). Compared to). In some embodiments, the first plane is emphasized according to the determination that the contact is in a position corresponding to the first plane detected in the field of view of the camera. According to the determination that the contact has moved to a position corresponding to the second plane detected in the field of view of the camera (eg, as illustrated in FIGS. 5S-5U), the first plane (eg, floor surface 5038). It is no longer emphasized, and the second plane (eg, table surface 5046) is emphasized. In some embodiments, multiple planes are emphasized at the same time. In some embodiments, the first plane of the plurality of visually modified planes is visually modified in a different way than the other planes are visually altered so that the contact is first. Indicates that it is in the position corresponding to the plane of. Changing the appearance of each of the one or more planes identified in the field of view of the camera gives feedback to the user to indicate that the plane (eg, a virtual object can be placed against it) has been identified. Provide to. Providing improved visual feedback enhances the usability of the device (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). In addition, it reduces power consumption and improves device battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、接触によって第1の入力を検出することに応答して、接触による第1の入力が第3の(例えば、ステージングユーザーインターフェースディスプレイ)基準(例えば、ステージングユーザーインターフェースディスプレイ基準は、スワイプ入力、タッチホールド入力、押圧入力、タップ入力又は所定の強度閾値を上回った強度を有する激しい押圧を識別するように構成される基準である)を満たすという判定にしたがって、デバイスはディスプレイ上に第3のユーザーインターフェース領域を表示して、第1のユーザーインターフェース領域の少なくとも一部の表示を(例えば、仮想オブジェクトの2D画像を置き換える仮想オブジェクトの三次元モデルを含んで)置き換えることを含む(848)。いくつかの実施形態では、ステージングユーザーインターフェース(例えば、図6Iに関して記載されているステージングユーザーインターフェース6010)を表示すると共に、デバイスは、ステージングユーザーインターフェースに対応する仮想オブジェクトの表現の外観を、(例えば、方法900を参照して下記でより詳細に説明するように)検出される入力に基づいて更新する。いくつかの実施形態では、仮想オブジェクトがステージングユーザーインターフェースで表示されている間に別の入力が検出され、その入力が第2のユーザーインターフェース領域を表示することに遷移するための基準を満たすときに、デバイスは連続的に仮想オブジェクトを表示すると共に、ステージングユーザーインターフェースの表示を第2のユーザーインターフェース領域に置き換える。更なる詳細を方法900に関して記載する。第1の入力が第3の基準を満たすという判定にしたがって第3のユーザーインターフェースを表示することは、第1のユーザーインターフェースを追加的な表示された制御(例えば、第1のユーザーインターフェースから第3のユーザーインターフェースを表示するための制御)で混乱させることのない追加的な制御オプションを提供する。第2のユーザーインターフェースを追加的な表示された制御で混乱させることのない追加的な制御オプションを提供することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a first input by contact, the first input by contact is a third (eg, staging user interface display) reference (eg, a staging user interface display reference). , Swipe input, touch hold input, press input, tap input or a criterion configured to identify intense press with an intensity above a predetermined intensity threshold). Includes displaying a third user interface area and replacing at least a portion of the display of the first user interface area (eg, including a three-dimensional model of the virtual object that replaces the 2D image of the virtual object) (848). ). In some embodiments, the staging user interface (eg, the staging user interface 6010 described with respect to FIG. 6I) is displayed and the device presents the appearance of the representation of the virtual object corresponding to the staging user interface (eg, eg). Update based on the input detected (as described in more detail below with reference to Method 900). In some embodiments, when another input is detected while the virtual object is being displayed in the staging user interface and that input meets the criteria for transitioning to displaying a second user interface area. , The device continuously displays virtual objects and replaces the staging user interface display with a second user interface area. Further details are given with respect to Method 900. Displaying the third user interface according to the determination that the first input meets the third criterion is an additional displayed control of the first user interface (eg, from the first user interface to the third. Provides additional control options that are not confusing (controls for displaying the user interface). Providing additional control options that do not confuse the second user interface with additional displayed controls enhances the usability of the device, which in addition allows the user to make the device faster and more efficient. Reduce power consumption and improve device battery life by allowing it to be used.

いくつかの実施形態では、接触による第1の入力(例えば、第1のユーザーインターフェース領域をスクロールすることに対応するスワイプ入力又は要求に対応して第1のユーザーインターフェース領域のコンテンツに対応するウェブページ又は電子メールを表示するタップ入力)が第1の(例えば、ARトリガ)基準を満たさないという判定にしたがって、デバイスは、第1のユーザーインターフェース領域の少なくとも一部の表示を(例えば、図6B~6Cに関して記載されているように)1つ以上のカメラの視野の表現に置き換えることなく第1のユーザーインターフェース領域の表示を維持する(850)。第1のユーザーインターフェース領域の表示を維持するべきであるか又は連続的に仮想オブジェクトの表現を表示するべきかどうか決定するための第1の基準を使用すると共に、第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野に置き換えることで、入力に応答して複数の異なるタイプの操作を実行することが可能になる。入力に応答して(例えば、ユーザーインターフェースの少なくとも一部の表示を1つ以上のカメラの視野に置き換えるか又は第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることなく第1のユーザーインターフェース領域の表示を維持することによって)複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a first input by contact (eg, a swipe input corresponding to scrolling the first user interface area or a web page corresponding to the content of the first user interface area in response to a request). Alternatively, according to the determination that the tap input to display the e-mail does not meet the first (eg, AR trigger) criterion, the device displays at least a portion of the first user interface area (eg, FIGS. 6B-. Maintaining the display of the first user interface area without replacing it with a representation of the field of view of one or more cameras (as described with respect to 6C). At least the first user interface area, while using the first criterion for determining whether the display of the first user interface area should be maintained or the representation of the virtual object should be displayed continuously. Replacing some displays with the field of view of one or more cameras allows you to perform several different types of operations in response to input. In response to input (eg, replacing at least a portion of the display in the user interface with the field of view of one or more cameras, or replacing at least a portion of the display in the first user interface area with the field of view of one or more cameras). Allowing the execution of multiple different types of operations (by maintaining the display of the first user interface area without replacing with) increases the efficiency with which the user can perform these operations. It enhances the usability of the device, which in turn reduces power consumption and improves the battery life of the device by allowing users to use the device more quickly and efficiently.

図8A~8Eの動作について記載された特定の順序は単なる例にすぎず、記載された順序が操作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書において記載されている操作を再び順序付けする各種の方法を認識するであろう。加えて、本明細書において記載されている他の方法(例えば、方法900及び1000)に関して本明細書において記載されている他のプロセスの詳細はまた、図8A~8Eに関して上述した方法800にも、類似の様式で適用できる点に留意されたい。例えば、方法800を参照して上述した接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、触知出力、視野、移動及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法900、1000、16000、17000、18000、19000、及び20000)を参照して本明細書に記載される接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、触知出力、視野、移動及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、これらの詳細はここで繰り返さない。 Understand that the particular order described for the operation of FIGS. 8A-8E is merely an example and is not intended to indicate that the order described is the only order in which the operation can be performed. I want to be. One of ordinary skill in the art will recognize various methods of reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 900 and 1000) can also be found in Method 800 described above with respect to FIGS. 8A-8E. Note that it can be applied in a similar fashion. For example, the contacts, inputs, virtual objects, user interface areas, intensity thresholds, tactile outputs, visual fields, movements and / or animations described above with reference to Method 800 are optionally described elsewhere herein. Contact, input, virtual object, user interface area, intensity threshold, tactile output, as described herein with reference to methods of (e.g., methods 900, 1000, 16000, 17000, 18000, 19000, and 20000). It has one or more of the characteristics of visual field, movement and / or animation. For the sake of brevity, these details are not repeated here.

図9A~9Dは、いくつかの実施形態による、第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現、第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現及び1つ以上のカメラの視野の表現を有する仮想オブジェクトの第3の表現を表示する方法900を図示しているフローチャートである。方法900は、ディスプレイ、タッチ感知面及び1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側上の1つ以上の後面カメラ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと統合される。いくつかの実施形態では、ディスプレイは、タッチ感知面から分離している。方法900のいくつかの操作は任意選択的に組み合わされ、かつ/又は、いくつかの操作の順序は任意選択的に変更される。 9A-9D show a first representation of a virtual object in a first user interface region, a second representation of a virtual object in a second user interface region, and a view of one or more cameras, according to some embodiments. It is a flowchart which illustrates the method 900 which displays the 3rd representation of the virtual object which has the representation of. Method 900 is an electronic device having a display, a touch sensitive surface and one or more cameras (eg, one or more rear cameras on the side of the device opposite the display and the touch sensitive surface) (eg, the device of FIG. 3). It is executed by 300 or the portable multifunction device 100) of FIG. 1A. In some embodiments, the display is a touch screen display and the touch sensitive surface is on or integrated with the display. In some embodiments, the display is separated from the touch sensitive surface. Some operations of Method 900 are optionally combined and / or the order of some operations is optionally changed.

後述するように、方法900は、第1のユーザーインターフェース(例えば、二次元のグラフィックユーザーインターフェース)の仮想オブジェクトの表現を表示するデバイスのタッチ感知面での接触によって入力を検出することに関する。第1の入力に応答して、デバイスは、第2のユーザーインターフェース(例えば、仮想オブジェクトの三次元表現を移動し、サイズ変更し、かつ/又は方向変更することができるステージングユーザーインターフェース)に仮想オブジェクトの第2の表現を表示するべきかどうか決定するための基準を使用する。第2のユーザーインターフェースに仮想オブジェクトの第2の表現を表示すると共に、第2の入力に応答して、デバイスは第2の入力に基づいて仮想オブジェクトの第2の表現の表示特性を変えるか又はデバイスの1つ以上のカメラの視野を含む第3のユーザーインターフェースの仮想オブジェクトの第3の表現を表示する。入力に応答して(例えば、仮想オブジェクトの表示特性を変えるか又は第3のユーザーインターフェースに仮想オブジェクトを表示することによって)複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することが出来る効率を増大させ、それによって、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As described below, Method 900 relates to detecting an input by contact with a touch-sensitive surface of a device displaying a representation of a virtual object in a first user interface (eg, a two-dimensional graphic user interface). In response to the first input, the device enters a second user interface (eg, a staging user interface that can move, resize, and / or reorient a three-dimensional representation of the virtual object). Use the criteria for deciding whether to display the second representation of. In response to the second input, the device changes the display characteristics of the second representation of the virtual object based on the second input, as well as displaying the second representation of the virtual object in the second user interface. Display a third representation of a virtual object in a third user interface that includes the field of view of one or more cameras on the device. Allowing users to perform several different types of operations in response to input (eg, by changing the display characteristics of the virtual object or by displaying the virtual object in a third user interface) is such that the user can perform these. Increases the efficiency with which operations can be performed, thereby increasing the usability of the device and, in addition, reducing power consumption by allowing users to use the device more quickly and efficiently. And improve the battery life of the device.

デバイスは、ディスプレイ112上の第1のユーザーインターフェース領域(例えば、二次元のグラフィックユーザーインターフェース又は一部(例えば、家具画像の一覧可能なリスト、1つ以上の選択可能なオブジェクトを含んでいる画像など))に仮想オブジェクトの表現(例えば、仮想椅子5020、仮想ランプ5084、靴、家具、手工具、装飾、人々、絵文字、ゲームキャラクタ、仮想家具などの、三次元オブジェクトのグラフィック表現)を表示する(902)。例えば、第1のユーザーインターフェース領域は、図6Aで示すメッセージ送信ユーザーインターフェース5008である。いくつかの実施形態では、第1のユーザーインターフェース領域は、デバイスを囲んでいる物理的環境の画像以外のバックグラウンドを含む(例えば、第1のユーザーインターフェース領域のバックグラウンドは、予め選択された背景色/パターンであるか、又は、1つ以上のカメラによって並行して取り込まれる出力像と異なり、かつ1つ以上のカメラの視野の有効なコンテンツと異なる背景画像である)。 The device may be a first user interface area on the display 112, such as a two-dimensional graphic user interface or a portion (eg, a list of furniture images, an image containing one or more selectable objects, and the like. )) Displays a representation of a virtual object (eg, a graphic representation of a three-dimensional object such as a virtual chair 5020, a virtual lamp 5084, shoes, furniture, hand tools, decorations, people, pictograms, game characters, virtual furniture, etc.) ( 902). For example, the first user interface area is the message transmission user interface 5008 shown in FIG. 6A. In some embodiments, the first user interface area includes a background other than an image of the physical environment surrounding the device (eg, the background of the first user interface area is a preselected background. A background image that is a color / pattern or that differs from the output image captured in parallel by one or more cameras and that differs from the valid content of the field of view of one or more cameras).

ディスプレイ上の第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現を表示すると共に、デバイスは、ディスプレイ上の仮想オブジェクトの第1の表現に対応するタッチ感知面上の場所で、第1の接触による第1の入力を検出する(904)(例えば、第1の接触はタッチスクリーンディスプレイ上の仮想オブジェクトの第1の表現上で検出されるか、又は、第1の接触は、仮想オブジェクトの第1の表現を有する第1のユーザーインターフェース領域において並行して表示され、そして、接触によって起動されると仮想オブジェクトのARビュー(例えば、カメラの視野6036)及び/又は仮想オブジェクト(例えば、仮想椅子5020)の表現を含むステージングユーザーインターフェース6010の表示をトリガするように構成されるアフォーダンス(例えば、トグル制御6018)上で、検出される)。例えば、第1の入力は、図6E~6Iに関して記載されている接触6006による入力である。 While displaying the first representation of the virtual object in the first user interface area on the display, the device is the first contact at the location on the touch sensitive surface corresponding to the first representation of the virtual object on the display. (904) (eg, the first contact is detected on the first representation of the virtual object on the touch screen display, or the first contact is the first of the virtual objects. AR view of a virtual object (eg, camera view 6036) and / or virtual object (eg, virtual chair 5020) displayed in parallel in a first user interface area having a representation of 1 and activated by contact. ) Is included on the affordance (eg, toggle control 6018) configured to trigger the display of the staging user interface 6010). For example, the first input is the input by contact 6006 described for FIGS. 6E-6I.

第1の接触によって、そして、第1の接触による第1の入力が第1の(例えば、ステージング-トリガ)基準を満たすという判定にしたがって第1の入力を検出することに応答して、(例えば、ステージング-トリガ基準は、入力されるスワイプを識別するように構成される基準、タッチホールド入力、押圧入力、タップ入力、接触のタッチダウン、接触の最初の移動又はカメラのアクティブ化及び/又はカメラの視野の視野平面の検出をトリガすることと関係している別のタイプの所定の入力ジェスチャである)、デバイスは、第1のユーザーインターフェース領域と異なる第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現を表示する(906)(例えば、第2のユーザーインターフェース領域は、カメラの視野を含まないで、そして、ユーザー入力に応答して仮想オブジェクトの三次元表現が操作される(例えば、回転されて、移動される)ことができる、擬似的な三次元空間を含むステージングユーザーインターフェース6010である)。例えば、図6E~6Hで、接触6006による入力が深い押圧強度閾値ITを上回って増加する特性強度を有するという判定にしたがって、メッセージ送信ユーザーインターフェース5008(例えば、図6Eに示すように)とは異なるステージングユーザーインターフェース6010(例えば、図6Iに示すように)で、仮想椅子オブジェクト5020は、表示される。 By the first contact and in response to detecting the first input according to the determination that the first input by the first contact meets the first (eg, staging-trigger) criterion (eg, staging-trigger). , Staging-trigger criteria are criteria configured to identify the swipe being input, touch hold input, press input, tap input, touch down of contact, first move of contact or activation of camera and / or camera. Another type of predetermined input gesture associated with triggering the detection of the field plane of the field of view), the device is a virtual object in a second user interface area that is different from the first user interface area. Display 2 representations (906) (eg, the second user interface area does not include the camera's field of view, and the 3D representation of the virtual object is manipulated in response to user input (eg, rotation). A staging user interface 6010 that includes a pseudo-three-dimensional space that can be moved). For example, in FIGS. 6E-6H, according to the determination that the input by contact 6006 has a characteristic intensity that increases above the deep pressing intensity threshold IT D , what is the message transmitting user interface 5008 (eg, as shown in FIG. 6E)? At a different staging user interface 6010 (eg, as shown in FIG. 6I), the virtual chair object 5020 is displayed.

いくつかの実施形態では、第1の入力を検出することに応答して、そして、第1の入力がステージングトリガ基準を満たすという判定にしたがって、デバイスは、第1のユーザーインターフェース領域で示す第1の向き(例えば、図6Eのメッセージ送信ユーザーインターフェース5008で示す仮想椅子5020の第1の向き)から、デバイスを囲んでいる物理的環境に対してデバイスの現在の向きから独立して方向付けられるディスプレイ上の仮想的なプレーンに基づいて決定される第2の向き(例えば、図6Iで示すステージ平面6014に基づいて決定される仮想椅子5020の第2の向き)まで、移動されて方向変更されている仮想オブジェクトの三次元表現を示す第1のアニメーション化された遷移を表示する。例えば、仮想オブジェクトの三次元の表現は(例えば、二次元のグラフィカルユーザーインターフェースで示す仮想オブジェクトの形状及び向きづけに基づいて)プレーンから所定の向き及び/又は距離を有し、そして、ステージングビュー(例えば、ステージングユーザーインターフェース6010)に遷移するときに、三次元の表現はディスプレイ上の仮想オブジェクトの元の位置からディスプレイ上の新しい位置(例えば、仮想ステージ6014の中心)まで移動され、サイズ変更され、方向変更され、そして、移動の間、又は、移動の終了後、デバイスを囲んでいる物理的環境から独立して定められる所定のステージング仮想的なプレーン6014に対して仮想オブジェクトが固定角であるように、三次元の表現は方向変更される。 In some embodiments, in response to detecting the first input, and according to the determination that the first input meets the staging trigger criteria, the device is shown in the first user interface area. A display that is oriented independently of the device's current orientation with respect to the physical environment surrounding the device from the orientation of (eg, the first orientation of the virtual chair 5020 shown in the message sending user interface 5008 of FIG. 6E). Moved and redirected to a second orientation determined based on the virtual plane above (eg, a second orientation of the virtual chair 5020 determined based on the stage plane 6014 shown in FIG. 6I). Display a first animated transition that represents a three-dimensional representation of an existing virtual object. For example, a three-dimensional representation of a virtual object has a given orientation and / or distance from the plane (eg, based on the shape and orientation of the virtual object as shown in the two-dimensional graphical user interface), and a staging view (eg, a staging view (based on the shape and orientation of the virtual object). For example, when transitioning to the staging user interface 6010), the 3D representation is moved, resized, and resized from the original position of the virtual object on the display to a new position on the display (eg, the center of the virtual stage 6014). The virtual object now has a fixed angle to a given staging virtual plane 6014 that is redirected and defined independently of the physical environment surrounding the device during or after the move. In addition, the three-dimensional representation is reoriented.

第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示すると共に、デバイスは第2の入力(例えば、図6Q~6Tで図示される接触6034による入力)を検出する(908)。いくつかの実施形態では、第2の入力を検出することは、仮想オブジェクトの第2の表現に対応するタッチスクリーン上の位置で1つ以上の第2の接触を検出すること、第2の接触によって起動されるとデバイスを囲んでいる物理的環境の拡張現実ビューの表示をトリガするように構成されるアフォーダンス上で第2の接触を検出すること、第2の接触の移動を検出すること、及び/又は第2の接触のリフトオフを検出することを含む。いくつかの実施形態では、第2の入力は、同じ接触による第1の入力の継続(例えば、第2の入力は、図6E~6Iで図示する接触6006の後の、図6Q~6Tで図示する接触6034による入力である(例えば、接触のリフトオフなしで))、又は完全に異なる接触による別々の入力(例えば、第2の入力は、図6E~6Iで図示する接触6006による第1の入力の後の、図6Q~6Tで図示する接触6034による入力である(接触のリフトオフによる))、又は追加の接触による入力の継続(例えば、第2の入力は、図6E~6Iで図示する接触6006による第1の入力の後の、図6J~6Lで図示する接触6006による入力である)である。例えば、第2の入力は、スワイプ入力、第2のタップ入力、第2の押圧入力、第1の入力に続いた押圧入力、第2のタッチホールド入力、第1の入力から続く維持されたタッチ、などの継続でもよい。 While displaying a second representation of the virtual object in the second user interface area, the device detects a second input (eg, an input by contact 6034 illustrated in FIGS. 6Q-6T) (908). In some embodiments, detecting the second input is detecting one or more second contacts at a position on the touch screen corresponding to the second representation of the virtual object, the second contact. Detecting a second contact on an affordance configured to trigger the display of an augmented reality view of the physical environment surrounding the device when activated by, detecting the movement of the second contact, And / or includes detecting the lift-off of the second contact. In some embodiments, the second input is a continuation of the first input with the same contact (eg, the second input is shown in FIGS. 6Q-6T after the contact 6006 shown in FIGS. 6E-6I. Input by contact 6034 (eg, without lift-off of contact) or separate input by completely different contacts (eg, the second input is the first input by contact 6006 illustrated in FIGS. 6E-6I). Subsequent input by contact 6034 illustrated in FIGS. 6Q-6T (due to lift-off of contact) or continuation of input by additional contact (eg, second input is contact illustrated in FIGS. 6E-6I). After the first input by 6006, it is the input by contact 6006 illustrated in FIGS. 6J to 6L). For example, the second input is a swipe input, a second tap input, a second press input, a press input following the first input, a second touch hold input, a maintained touch following the first input. , Etc. may be continued.

第2の入力を検出することに応答して(910)、第2の入力が(例えば、拡張現実ビューに遷移せずに)第2のユーザーインターフェース領域の仮想オブジェクトを操作する要求に対応するという決定にしたがって、デバイスは第2の入力に基づいて第2のユーザーインターフェース領域の中の仮想オブジェクトの第2の表現の表示特性を変更し、そして、第2の入力が拡張現実環境に仮想オブジェクトを表示する要求に対応するという決定にしたがって、デバイスは1つ以上のカメラの視野の表現を有する仮想オブジェクトの第3の表現を表示する(例えば、デバイスは、1つ以上のカメラの視野6036を含む第3のユーザーインターフェースを表示し、デバイスを囲んでいる物理的環境5002の物理的なプレーン(例えば、床)に対応するカメラの視野の中で検出される仮想的なプレーン(例えば、床面5038)上に、仮想オブジェクトの三次元表現(例えば、仮想椅子5020)を配置する)。 In response to detecting the second input (910), the second input responds to a request to manipulate a virtual object in the second user interface area (eg, without transitioning to the augmented reality view). According to the decision, the device changes the display characteristics of the second representation of the virtual object in the second user interface area based on the second input, and the second input puts the virtual object into the augmented real environment. According to the decision to meet the display request, the device displays a third representation of the virtual object having a representation of the field of view of one or more cameras (eg, the device includes a field of view 6036 of one or more cameras). A virtual plane (eg, floor 5038) that displays a third user interface and is detected in the camera's field of view corresponding to the physical plane (eg, floor) of the physical environment 5002 surrounding the device. ) On top of a three-dimensional representation of a virtual object (eg, a virtual chair 5020).

いくつかの実施形態では、第2のユーザーインターフェース領域の仮想オブジェクトを操作する要求に対応する第2の入力は、第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現に対応するタッチ感知面上の場所での第2の接触によるピンチ又はスワイプである。例えば、第2の入力は、図6J~6Lに図示する接触6006による入力又は図6N~6Oに図示する接触6026及び6030による入力である。 In some embodiments, the second input corresponding to the request to manipulate the virtual object in the second user interface area is on the touch-sensitive surface corresponding to the second representation of the virtual object in the second user interface area. A pinch or swipe by a second contact at the location of. For example, the second input is the input by the contact 6006 shown in FIGS. 6J to 6L or the input by the contacts 6026 and 6030 shown in FIGS. 6N to 6O.

いくつかの実施形態では、仮想オブジェクトを拡張現実環境に表示する要求に対応する第2の入力は、第2のユーザーインターフェース領域の仮想オブジェクトの表現に対応するタッチ感知面上の場所での、又は、そこからの、タップ入力、押圧入力又はタッチホールド若しくは押圧入力に続くドラッグ入力である。例えば、第2の入力は、図6Q~6Tで図示する接触6034によって入力される深い押圧である。 In some embodiments, the second input corresponding to the request to display the virtual object in the augmented reality environment is at a location on the touch sensitive surface corresponding to the representation of the virtual object in the second user interface area, or. , From there, tap input, press input or touch hold or drag input following press input. For example, the second input is a deep press input by the contact 6034 illustrated in FIGS. 6Q-6T.

いくつかの実施形態では、第2の入力に基づいて第2のユーザーインターフェース領域の中で仮想オブジェクトの第2の表現の表示特性を変えることは、1つ以上の軸のまわりを回転すること(例えば、垂直及び/又は横スワイプを経て)、サイズ変更すること(例えば、サイズ変更するピンチ)、1つ以上の軸のまわりで傾けること(例えば、デバイスを傾けることによって)、視点を変化させること(例えば、1つ以上の視野面を検出するための1つ以上のカメラの視野の分析のためにいくつかの実施形態において使われる、水平にデバイスを動かすことによって)、及び/又は仮想オブジェクトの表現の色を変えることを含む。例えば、仮想オブジェクトの第2の表現の表示特性を変えることは、図6J~6Kで図示するように、接触6006によって水平スワイプジェスチャに応答して仮想椅子5020を回転させること、図6K~6Lで図示するように、接触6006によって斜めのスワイプジェスチャに応答して仮想椅子5020を回転させること、又は図6N~6Oで図示するように、接触6026及び6030によってデピンチジェスチャに応答して仮想椅子5020のサイズを増加させることを含む。いくつかの実施形態において、仮想オブジェクトの第2の表現の表示特性が変えられる量は、第2の入力特性が変化する量(例えば、接触による移動の距離又は速度、接触の強度、接触の期間など)と相関している。 In some embodiments, changing the display characteristics of a second representation of a virtual object within a second user interface area based on a second input is to rotate around one or more axes ( For example, via a vertical and / or horizontal swipe), resizing (eg, resizing pinch), tilting around one or more axes (eg, tilting the device), changing the field of view. (For example, by moving the device horizontally, which is used in some embodiments for the analysis of the field of view of one or more cameras to detect one or more fields of view), and / or of a virtual object. Includes changing the color of the expression. For example, changing the display characteristics of the second representation of a virtual object is to rotate the virtual chair 5020 in response to a horizontal swipe gesture by contact 6006, as illustrated in FIGS. 6J-6K, in FIGS. 6K-6L. As shown, the virtual chair 5020 is rotated in response to an oblique swipe gesture by contact 6006, or the virtual chair 5020 is responded to a depinch gesture by contacts 6026 and 6030, as illustrated in FIGS. 6N-6O. Includes increasing the size of the chair. In some embodiments, the amount by which the display characteristic of the second representation of the virtual object is altered is the amount by which the second input characteristic is altered (eg, distance or speed of movement by contact, strength of contact, duration of contact). Etc.).

いくつかの実施形態では、第2の入力が拡張現実環境に(例えば、図6Tに関して記載されている1つ以上のカメラの視野6036に)仮想オブジェクトを表示する要求に対応するという決定にしたがって、デバイスは、ディスプレイ上の仮想的なプレーンに対するそれぞれの向き(例えば、図6Rに示す仮想椅子5020の向き)から、1つ以上のカメラの視野において捕えられる物理的環境の部分の現在の向きに基づいて決定される第3の方向(例えば、図6Tに示す仮想椅子5020の向き)まで方向変更される、仮想オブジェクトの三次元表現を示す第2のアニメーション化された遷移を表示する。例えば、仮想オブジェクトの三次元の表現は、仮想オブジェクトの三次元表現が、カメラの視野において捕えられる物理的環境5002(例えば、仮想オブジェクトの三次元表現を支持することができる直立壁又は水平床面などの物理表面)のライブ画像において識別される所定のプレーン(例えば、床面5038)に対して固定角であるように、方向変更される。いくつかの実施形態では、拡張現実ビューの仮想オブジェクトの向きは、少なくとも1つの態様においてステージングユーザーインターフェースの仮想オブジェクトの向きによって拘束される。例えば、三次元座標系の少なくとも1つの軸のまわりの仮想オブジェクトの回転角度は、仮想オブジェクトをステージングユーザーインターフェースから拡張現実ビューに遷移するときに維持される(例えば、図6Q~6Uに関して記載されているように、図6J~6Kに関して記載されている仮想椅子5020の回転は維持される)。いくつかの実施形態では、第2のユーザーインターフェース領域の仮想オブジェクトの表現上への光投射源は仮想光源である。いくつかの実施形態では、第3のユーザーインターフェース領域の仮想オブジェクトの第3の表現は、(例えば、1つ以上のカメラの視野において検出され、かつ/又はそれから判定されるような)実世界光源によって照らされる。 In some embodiments, according to the determination that the second input corresponds to a request to display a virtual object in an augmented reality environment (eg, in the field of view 6036 of one or more cameras described with respect to FIG. 6T). The device is based on the current orientation of the portion of the physical environment captured in the field of view of one or more cameras from each orientation with respect to the virtual plane on the display (eg, the orientation of the virtual chair 5020 shown in FIG. 6R). Displays a second animated transition showing a three-dimensional representation of a virtual object that is redirected to a third direction determined (eg, the orientation of the virtual chair 5020 shown in FIG. 6T). For example, a 3D representation of a virtual object is an upright wall or horizontal floor that can support the 3D representation of the virtual object in the physical environment 5002 (eg, the 3D representation of the virtual object) captured in the camera's field of view. Is redirected to a fixed angle with respect to a given plane (eg, floor surface 5038) identified in a live image of a physical surface such as. In some embodiments, the orientation of the virtual object in the augmented reality view is constrained by the orientation of the virtual object in the staging user interface in at least one embodiment. For example, the rotation angle of a virtual object around at least one axis in the 3D coordinate system is maintained as the virtual object transitions from the staging user interface to the augmented reality view (eg, with respect to FIGS. 6Q-6U. As such, the rotation of the virtual chair 5020 described for FIGS. 6J-6K is maintained). In some embodiments, the light source on the representation of the virtual object in the second user interface area is a virtual light source. In some embodiments, the third representation of the virtual object in the third user interface area is a real-world light source (eg, as detected and / or determined in the field of view of one or more cameras). Illuminated by.

いくつかの実施形態では、第1の基準は、第1の入力が仮想オブジェクトインジケータ5022(例えば、ディスプレイ上の仮想オブジェクトの表現に重ねてかつ/又はそれと隣接して表示されるアイコンなどのインジケータ)に対応するタッチ感知面上の場所に第1の接触によって入力されるタップを含むときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(912)。例えば、仮想オブジェクトインジケータ5022は、それが一致する仮想オブジェクトがステージングビュー(例えば、ステージングユーザーインターフェース6010)及び拡張現実ビュー(例えば、カメラの視野6036)において見えるという表示を、(例えば、方法1000に関して下記により詳細に説明するように)提供する。第1の入力が入力されるタップを含むかどうかに応じて、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示するかどうかを決定することにより、第1の入力に応答して複数の異なるタイプの操作を実行することができる。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is that the first input is a virtual object indicator 5022 (eg, an indicator such as an icon that is superimposed on and / or adjacent to the representation of the virtual object on the display). Includes criteria that are met (eg, according to the determination that it is) when the location on the touch sensitive surface corresponding to includes the tap entered by the first contact (912). For example, the virtual object indicator 5022 displays that the matching virtual object is visible in the staging view (eg, staging user interface 6010) and the augmented reality view (eg, camera field of view 6036) (eg, with respect to method 1000 below). Provided in more detail). In response to the first input, the first input responds to the first input by deciding whether to display a second representation of the virtual object in the second user interface area, depending on whether it contains a tap to be input. You can perform several different types of operations. Allowing users to perform different types of operations in response to input increases the efficiency with which users can perform these operations, thereby enhancing the usability of the device and, in addition, it. However, it improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1の基準は、少なくとも所定の時間(例えば、長いプレスの時間閾値)の間に閾値移動量未満で仮想オブジェクトの第1の表現に対応する、タッチ感知面上の場所に第1の接触が維持されるときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(914)。例えば、第1の基準は、タッチホールド入力によって満たされる。いくつかの実施形態では、第1の基準は、基準が満たされるために、少なくとも所定の閾値時間の間に閾値移動量未満で仮想オブジェクトの表現に対応するタッチ感知面上の場所に第1の接触が維持された後に第1の接触の移動を必要とする基準を含む。例えば、第1の基準は、タッチホールド入力に続くドラッグ入力によって満たされる。仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示するべきかどうかを決定することは、接触が少なくとも所定の時間の間に閾値移動量未満で仮想オブジェクトの表現に対応するタッチ感知面上の場所に維持されるかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion corresponds to a first representation of a virtual object with less than a threshold movement during at least a predetermined time (eg, a long press time threshold), on a touch-sensitive surface. Includes criteria that are met when the first contact is maintained in place (eg, according to the determination that it is) (914). For example, the first criterion is satisfied by a touch hold input. In some embodiments, the first criterion is a location on the touch-sensitive surface that corresponds to the representation of the virtual object with less than the threshold movement amount during at least a predetermined threshold time for the criterion to be met. Includes criteria that require the movement of the first contact after the contact is maintained. For example, the first criterion is satisfied by a drag input following a touch hold input. Determining whether a second representation of a virtual object should be displayed in the second user interface area is a touch-sensitive surface that corresponds to the representation of the virtual object with less than a threshold movement of contact for at least a given amount of time. Allows you to perform several different types of operations in response to input, depending on whether they are kept in place above. Allowing users to perform different types of operations in response to input increases the efficiency with which users can perform these operations, thereby enhancing the usability of the device and, in addition, it. However, it improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1の基準は、第1の接触の特性強度が第1の強度閾値(例えば、深い押圧強度閾値IT)を上回って増加するときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(916)。例えば、図6Q~6Tに関して記載されているように、基準は、強度レベルメータ5028によって示されるように、接触6034の特性強度が深い押圧強度閾値ITを上回って増加するときに満たされる。いくつかの実施形態では、接触が別のタイプのジェスチャ(例えば、タップ)を認識するための基準を満たすという判定にしたがって、デバイスは第2の(例えば、ステージング)ユーザーインターフェースをトリガさせること以外の別の所定の機能を実行すると共に仮想オブジェクトの表示を維持する。いくつかの実施形態では、第1の基準は、第1の入力がタップ入力でない(例えば、接触のリフトオフの前に閾値強度を上回ったものに達する激しいタップ入力が、接触の最初のタッチダウンのタップ時間閾値の範囲内で検出される)ことを必要とする。いくつかの実施形態では、第1の基準は、基準が満たされるために、第1の接触の強度が第1の強度閾値を超えた後に第1の接触の移動を必要とする基準を含む。例えば、第1の基準は、押圧入力に続くドラッグ入力によって満たされる。接触の特性強度が第1の強度閾値を上回って増加するかどうかに応じて、第2のユーザーインターフェース領域に仮想オブジェクトを表示するかどうかを決定することにより、第1の入力に応答して複数の異なるタイプの操作を実行することができる。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is that when the characteristic strength of the first contact increases above the first strength threshold (eg, deep press strength threshold IT D ) (eg, it is). Includes criteria that are met (according to the determination) (916). For example, as described for FIGS. 6Q-6T, the criteria are met when the characteristic strength of the contact 6034 increases above the deep pressing strength threshold IT D , as indicated by the strength level meter 5028. In some embodiments, the device does not trigger a second (eg, staging) user interface according to the determination that the contact meets the criteria for recognizing another type of gesture (eg, tap). Performs another given function and keeps the virtual object visible. In some embodiments, the first criterion is that the first input is not a tap input (eg, a violent tap input that reaches above the threshold intensity prior to the lift-off of the contact, but the first touchdown of the contact. (Detected within the tap time threshold) is required. In some embodiments, the first criterion includes a criterion that requires the movement of the first contact after the strength of the first contact exceeds the first strength threshold in order for the criterion to be met. For example, the first criterion is satisfied by a drag input following a press input. Multiple in response to the first input by deciding whether to display the virtual object in the second user interface area, depending on whether the characteristic strength of the contact increases above the first strength threshold. Can perform different types of operations. Allowing users to perform different types of operations in response to input increases the efficiency with which users can perform these operations, thereby enhancing the usability of the device and, in addition, it. However, it improves the battery life of the device by reducing power consumption and allowing users to use the device faster and more efficiently.

一部の実施形態では、第1の接触による第1の入力の検出に応答して、第1の接触による第1の入力が第2の基準(例えば、インターフェーススクロール基準)を満たすことの判定に応じて(ただし、第2の基準は、第1の入力が閾値距離よりも長くにわたるタッチ感知面と交差する方向の第1の接触の移動を含むことを必要とする(例えば、第2の基準は、垂直スワイプ又は水平ジェスチャなどのスワイプジェスチャによって満たされる))、デバイスは、第1のユーザーインターフェース領域(及び仮想オブジェクトの表現)を第1の接触の移動方向に対応する方向にスクロールする(918)(例えば、第1の基準は満たされず、仮想オブジェクトの表現を第2のユーザーインターフェース領域に表示することは見合わせられる)。例えば、図6B~6Cに関して説明したように、接触6002による上向きの垂直スワイプジェスチャは、メッセージングユーザーインターフェース5008及び仮想椅子5020を上方へスクロールさせる一部の実施形態では、第1の基準が満たされるために、第1の基準も、第1の入力が閾値距離よりも長くにわたる第1の接触の移動を含むことを必要とし、デバイスは、第1の入力の初期部分がオブジェクト選択基準(例えば、仮想オブジェクトの表現に対するタッチ保持又は押圧)を満たすか否かに基づいて、第1の入力が、第1の基準(例えば、ステージングトリガ基準)、又は第2の基準(例えば、インターフェーススクロール基準)を満たすか否かを判定する。一部の実施形態では、第2の基準は、仮想オブジェクト及び仮想オブジェクトのARアイコン)の位置の外側のタッチ位置で開始されるスワイプ入力によって満たされる。第1の入力が第2の基準を満たすか否かによって、第1の入力に応答して第1のユーザーインターフェース領域をスクロールするか否かを判定することで、第1の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to detection of a first input by a first contact, a determination that the first input by the first contact meets a second criterion (eg, an interface scroll criterion). Accordingly (although the second criterion is required to include the movement of the first contact in the direction in which the first input intersects the touch-sensitive surface over a threshold distance (eg, the second criterion). Is filled with a swipe gesture such as a vertical swipe or a horizontal gesture)), the device scrolls the first user interface area (and the representation of the virtual object) in the direction corresponding to the direction of movement of the first contact (918). (For example, the first criterion is not met and the representation of the virtual object is forgotten to be displayed in the second user interface area). For example, as described with respect to FIGS. 6B-6C, the upward vertical swipe gesture with contact 6002 meets the first criterion in some embodiments that scroll the messaging user interface 5008 and the virtual chair 5020 upwards. In addition, the first criterion also requires that the first input include movement of the first contact over a threshold distance, and the device has an initial portion of the first input as an object selection criterion (eg, virtual). The first input meets a first criterion (eg, a staging trigger criterion) or a second criterion (eg, an interface scrolling criterion) based on whether or not a touch hold or press on the representation of the object is satisfied. Judge whether or not. In some embodiments, the second criterion is satisfied by a swipe input initiated at a touch position outside the position of the virtual object and the virtual object's AR icon). In response to the first input, by determining whether the first input meets the second criterion and whether to scroll the first user interface area in response to the first input. You can perform several different types of actions. By allowing users to perform different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and, in addition, allowing the user to perform the device faster. And by enabling efficient use, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、第1の接触による第1の入力の検出に応答して、第1の接触による第1の入力が第3の(例えば、ARトリガ)基準を満たすことの判定に応じて、デバイスは、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現と共に表示する(920)。例えば、図6AD~6AGに関して説明したように、接触6044による長いタッチ入力とそれに続く仮想椅子5020をドラッグする接触6044による上向きのドラッグ入力によって、仮想椅子5020は、カメラの視野6036と共に表示される。 In some embodiments, in response to the detection of the first input by the first contact, depending on the determination that the first input by the first contact meets the third (eg, AR trigger) criterion. The device then displays a third representation of the virtual object, along with a representation of the field of view of one or more cameras (920). For example, as described for FIGS. 6AD-6AG, the virtual chair 5020 is displayed with the field of view 6036 of the camera by a long touch input by the contact 6044 followed by an upward drag input by the contact 6044 that drags the virtual chair 5020.

一部の実施形態では、第3の基準は、例えば、1つ以上のカメラがアクティブ状態にあり、デバイスの向きが規定の範囲(例えば、既定の元の向きから、1つ以上の軸まわりの規定の回転角)内に収まり、接触による入力が選択入力(例えば、長いタッチ)とそれに続くドラッグ入力を含む((例えば、ディスプレイの縁部から所定の距離内まで)ディスプレイ上で仮想オブジェクトを移動させる接触の移動)、接触の特性強度はARトリガ強度閾値(例えば、ライト押圧閾値IT又はディープ押圧閾値IT))を超えて増大し、接触の持続時間はARトリガ持続時間閾値(例えば、長い押圧閾値)を超えて増大し、及び/又はこの接触により移動する距離はARトリガ距離閾値(例えば、長いスワイプ閾値)を超えて増大する、という判定に応じて満足させられる基準を含む。一部の実施形態では、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)に仮想オブジェクトの表現を表示する制御(例えば、トグル制御6018)は、仮想オブジェクトの表現及び1つ以上のカメラの視野6036を含むユーザーインターフェース(例えば、第2のユーザーインターフェース領域のうちの少なくとも一部に置き換わる第3のユーザーインターフェース領域)に表示される。 In some embodiments, the third criterion is, for example, that one or more cameras are active and the orientation of the device is within a defined range (eg, from the default original orientation to one or more axes. Moves a virtual object on the display (eg, within a given distance from the edge of the display) that fits within the specified angle of rotation) and that the contact input contains a selective input (eg, a long touch) followed by a drag input (eg, within a given distance from the edge of the display). (Movement of contact to cause), the characteristic intensity of contact increases beyond the AR trigger intensity threshold (eg, light press threshold ITL or deep press threshold IT D ), and the duration of contact is the AR trigger duration threshold (eg, eg). Includes criteria that are satisfied in response to the determination that the distance traveled by this contact increases beyond a long pressing threshold) and / or travels by this contact exceeds an AR trigger distance threshold (eg, a long swipe threshold). In some embodiments, a control (eg, toggle control 6018) that displays a representation of a virtual object in a second user interface area (eg, staging user interface 6010) is a representation of the virtual object and one or more cameras. It is displayed in the user interface including the field of view 6036 (eg, a third user interface area that replaces at least a portion of the second user interface area).

一部の実施形態では、第1のユーザーインターフェース領域(例えば、非AR、非ステージング、タッチスクリーンUIビュー)から第3のユーザーインターフェース領域(例えば、拡張現実ビュー)へ直接に遷移する際に、デバイスは、ディスプレイ上のタッチスクリーンUI(例えば、非AR、非ステージングビュー)に表されるそれぞれの向きから1つ以上のカメラの視野内に取り込まれた物理的環境の一部の現在の向きに対して予め定められている向きへ仮想オブジェクトの三次元表現の向きが変えられることを示すアニメーション化された遷移を表示する。例えば、図6AD~6AJに示すように、第1のユーザーインターフェース領域(例えば、図6ADに示すようなメッセージングユーザーインターフェース5008)から第3のユーザーインターフェース領域(例えば、図6AJに示すようなカメラの視野6036を含む拡張現実ユーザーインターフェース)へ直接に遷移する際に、仮想椅子5020は、図6AD~6AHに示すような第1の向きから(例えば、図6AJに示すような)カメラの視野6036内に取り込まれるような物理的環境5002内の床面5038に対する所定の向きへ変化する。例えば、仮想オブジェクトの三次元表現は、仮想オブジェクトの三次元表現が物理的環境5002のライブ画像中で識別される所定のプレーン(例えば、仮想オブジェクトの三次元表現を支持することができる垂直壁又は水平床面(例えば、床面5038)などの物理的表面)に対して一定の角度であるように向きが変えられる。第1の入力が第3の基準を満たすか否かによって、第1の入力に応答してカメラの視野と共に仮想オブジェクトの第3の表現を表示するか否かを判定することで、第1の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device makes a direct transition from a first user interface area (eg, non-AR, non-staging, touchscreen UI view) to a third user interface area (eg, augmented reality view). For the current orientation of a portion of the physical environment captured within the field of one or more cameras from each orientation represented by the touch screen UI on the display (eg, non-AR, non-staging view). Displays an animated transition that indicates that the orientation of the three-dimensional representation of the virtual object can be changed to a predetermined orientation. For example, as shown in FIGS. 6AD-6AJ, the first user interface area (for example, the messaging user interface 5008 as shown in FIG. 6AD) to the third user interface area (for example, the view of the camera as shown in FIG. 6AJ). Upon direct transition to the augmented reality user interface including 6036), the virtual chair 5020 is placed in the camera's field of view 6036 from the first orientation as shown in FIGS. 6AD-6AH (eg, as shown in FIG. 6AJ). It changes in a predetermined orientation with respect to the floor surface 5038 in the physical environment 5002 to be captured. For example, a 3D representation of a virtual object may be a vertical wall or a vertical wall capable of supporting the 3D representation of the virtual object, eg, a predetermined plane in which the 3D representation of the virtual object is identified in a live image of physical environment 5002. It is oriented so that it is at a constant angle to a horizontal floor surface (eg, a physical surface such as a floor surface 5038). A first, depending on whether the first input meets the third criterion, determines whether to display a third representation of the virtual object along with the field of view of the camera in response to the first input. It is possible to perform several different types of actions in response to input. By allowing users to perform different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and, in addition, allowing the user to perform the device faster. And by enabling efficient use, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、第1の接触による第1の入力の検出に応答して、デバイスは、1つ以上のデバイス方向センサによって、デバイスの現在のデバイス向き(例えば、デバイスの周囲の物理的環境に対する向き)を決定し(922)、第3の基準(例えば、ARトリガ基準)は、第3の基準が満たされるために、現在のデバイス向きが第1の向き範囲内にあることを必要とする(例えば、デバイスとグラウンドの間の角度が、(介在状態をバイパスするために)デバイスがグラウンドに対して十分に平行であることを示す閾値角度未満であるときに、第2の基準は満たされる)。一部の実施形態では、第1の基準(例えば、ステージングトリガ基準)は、第1の基準が満たされるために、現在のデバイスの向きが第2の向き範囲内にあることを必要とする(例えば、デバイスとグラウンドの間の角度が、まず介在状態に行くためにデバイスがグラウンドに対して十分に直立であることを示す閾値から90度の値の範囲内にあるときに、第1の基準は満たされる。デバイスの向きがある向き範囲内にあるか否かによって、第1の入力に応答してカメラの視野と共に仮想オブジェクトの第3の表現を表示するか否かを判定することで、第1の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to the detection of the first input by the first contact, the device is oriented by one or more device orientation sensors to the device's current device orientation (eg, physical around the device). (Orientation to the environment) is determined (922), and the third criterion (eg, AR trigger criterion) requires that the current device orientation be within the first orientation range in order for the third criterion to be met. The second criterion is, for example, when the angle between the device and the ground is less than the threshold angle indicating that the device is sufficiently parallel to the ground (to bypass the intervening state). It is filled). In some embodiments, the first criterion (eg, the staging trigger criterion) requires that the orientation of the current device be within the second orientation range in order for the first criterion to be met (eg, the staging trigger criterion). For example, the first criterion is when the angle between the device and the ground is within a value of 90 degrees from the threshold that indicates that the device is sufficiently upright with respect to the ground to first go to the intervening state. Is satisfied. By determining whether the orientation of the device is within a certain orientation range and whether to display a third representation of the virtual object along with the field of view of the camera in response to the first input. It is possible to perform a number of different types of actions in response to a first input. The efficiency with which a user can perform these actions by allowing them to perform a number of different types of actions in response to an input. Increases device usability, thereby reducing device power usage and improving battery life by allowing users to use the device faster and more efficiently.

一部の実施形態では、仮想オブジェクトの第2の表現の少なくとも1つの表示特性(例えば、サイズ、形状、ヨー軸、ピッチ軸、ロール軸など周りのそれぞれの角度)は、仮想オブジェクトの第3の表現に適用される(924)。例えば、図6Q~6Uに関して説明したように、仮想椅子5020の第3の表現が(例えば、図6Uに示すような)カメラの視野6036を含む拡張現実ビューに表示されるときに、図6J~6Kに関して説明したように、ステージングユーザーインターフェース6010に適用される仮想椅子5020の第2の表現の回転は維持される。一部の実施形態では、拡張現実ビューにおける仮想オブジェクトの向きは、少なくとも1つの態様におけるステージングユーザーインターフェースにおける仮想オブジェクトの向きによって制約される。例えば、仮想オブジェクトをステージングビューから拡張現実ビューに遷移するときに、所定の三次元座標系の少なくとも1つの軸(例えば、ヨー、ピッチ、又はロール軸)の周りの仮想オブジェクトの回転角度は維持される。一部の実施形態では、仮想オブジェクトの第2の表現がユーザー入力によっていくつかのやり方で操作(例えば、サイズ、形状、テクスチャ、向き等が変更)される場合、仮想オブジェクトの第2の表現の少なくとも1つの表示特性は、仮想オブジェクトの第3の表現にのみ適用される。言い換えれば、オブジェクトが、1つ以上のやり方で拡張現実ビューに示されるときに又は拡張現実ビュー内でオブジェクトの外観を制約するために使用されるときに、ステージングビューになされる変化は、維持される。(例えば、仮想オブジェクトの第2の表現及び仮想オブジェクトの第3の表現に同一の表示特性を適用するために更なるユーザー入力を必要とせずに)仮想オブジェクトの第2の表現の少なくとも1つの表示特性を仮想オブジェクトの第3の表現に適用することにより、(例えば、仮想オブジェクトの大きなバージョンが第2のユーザーインターフェースに表示されている間にユーザーが第2の仮想オブジェクトに回転を適用することを可能にし、1つ以上のカメラの視野の表現と共に表示される仮想オブジェクトの第3の表現に回転を適用することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, at least one display characteristic of the second representation of the virtual object (eg, each angle around the size, shape, yaw axis, pitch axis, roll axis, etc.) is the third of the virtual object. Applies to expression (924). For example, as described with respect to FIGS. 6Q-6U, when a third representation of the virtual chair 5020 is displayed in an augmented reality view that includes a camera field of view 6036 (eg, as shown in FIG. 6U), FIGS. 6J-. As described for 6K, the rotation of the second representation of the virtual chair 5020 applied to the staging user interface 6010 is maintained. In some embodiments, the orientation of the virtual object in the augmented reality view is constrained by the orientation of the virtual object in the staging user interface in at least one embodiment. For example, when transitioning a virtual object from a staging view to an augmented reality view, the rotation angle of the virtual object around at least one axis in a given three-dimensional coordinate system (eg, yaw, pitch, or roll axis) is maintained. The object. In some embodiments, if the second representation of the virtual object is manipulated in some way by user input (eg, the size, shape, texture, orientation, etc.), then the second representation of the virtual object At least one display characteristic applies only to the third representation of the virtual object. In other words, the changes made to the staging view are preserved when the object is shown in the augmented reality view in one or more ways or used to constrain the appearance of the object in the augmented reality view. The object. At least one display of the second representation of the virtual object (eg, without the need for additional user input to apply the same display characteristics to the second representation of the virtual object and the third representation of the virtual object). By applying the property to a third representation of a virtual object (for example, a user applying a rotation to a second virtual object while a larger version of the virtual object is displayed in the second user interface). It makes it possible to improve the usability of the device (by applying rotation to the third representation of the virtual object displayed with the representation of the field of view of one or more cameras), and also allows the user to make the device faster and more efficient. Reduces device power usage and improves battery life by allowing it to be used in.

一部の実施形態では、(例えば、第1の接触の検出、又は第1の基準を満たさずにそれぞれの所定の基準を満たす第1の接触による入力の検出、あるいは第1の基準を満たす入力の検出を含む)第1の接触による第1の入力のうちの少なくとも初期部分の検出に応答して(926)、デバイスは、1つ以上のカメラを起動し(例えば、ディスプレイ上にカメラの視野を直ちに表示することなくカメラを起動し)、デバイスは、1つ以上のカメラの視野を分析して、1つ以上のカメラの視野内の1つ以上のプレーンを検出する。一部の実施形態では、(例えば、拡張現実環境に仮想オブジェクトを表示する要求に対応する第2の入力が検出されるまで、少なくとも1つの視野平面が検出されるまで、又は仮想オブジェクトに対して定められるアンカー平面に対応する視野平面が検出されるまで)1つ以上のカメラの視野6036を表示することは、1つ以上のカメラの起動後に遅延される。一部の実施形態では、1つ以上のカメラの視野6036は、1つ以上のカメラの起動に対応する時点で(例えば、それと同時に)表示される。一部の実施形態では、1つ以上のカメラの視野内でプレーンが検出される前(例えば、接触による第1の入力の検出に応答して判定に応じて1つ以上のカメラの視野が表示される前)に、1つ以上のカメラの視野6036が表示される。(例えば、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現と共に表示する前に)カメラを起動しカメラの視野を分析して、第1の入力の初期部分の検出に応答して1つ以上の視野平面の検出することで、(例えば、カメラの視野内のそれぞれのプレーンに対する仮想オブジェクトの第3の表現の位置及び/又は向きを決定するのに必要な時間を減少させることによって)デバイスの効率高め、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments (eg, detection of a first contact, or detection of an input by a first contact that does not meet a first criterion but meets each predetermined criterion, or an input that meets a first criterion). In response to the detection of at least the initial portion of the first input by the first contact (including the detection of) (926), the device activates one or more cameras (eg, the field of view of the camera on the display). Launches the camera without immediately displaying), the device analyzes the field of view of one or more cameras to detect one or more planes within the field of view of one or more cameras. In some embodiments (eg, until a second input corresponding to the request to display the virtual object in the augmented reality environment is detected, at least one viewing plane is detected, or for the virtual object. Displaying the field of view 6036 of one or more cameras (until the field of view plane corresponding to the defined anchor plane is detected) is delayed after the activation of the one or more cameras. In some embodiments, the field of view 6036 of one or more cameras is displayed at a time (eg, at the same time) corresponding to the activation of one or more cameras. In some embodiments, the field of view of one or more cameras is displayed in response to a determination before the plane is detected within the field of view of one or more cameras (eg, in response to the detection of a first input by contact). The field of view 6036 of one or more cameras is displayed. Invoke the camera (for example, before displaying the third representation of the virtual object with the representation of the field of view of one or more cameras), analyze the field of view of the camera, and respond to detection of the initial part of the first input. By detecting one or more field planes (eg, reducing the time required to determine the position and / or orientation of a third representation of the virtual object with respect to each plane in the camera's field of view. By increasing the efficiency of the device, and by allowing users to use the device faster and more efficiently, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、デバイスは、1つ以上のカメラの視野内のそれぞれのプレーン(例えば、床面5038)の検出に応答して、1つ以上の触知出力生成器167を用いて、1つ以上のカメラの視野内のそれぞれのプレーンの検出を示す触知出力を出力する(928)。一部の実施形態では、視野平面が識別される前に、視野6036が示され得る。一部の実施形態では、追加のユーザーインターフェース制御及び/又はアイコンは、少なくとも1つの視野平面が検出された後に又は視野平面の全部が識別された後に、視野内で実世界画像上に重ね合わされる。カメラの視野内でプレーンを検出したことを示す触知出力を出力することで、プレーンが検出されたことを示すフィードバックをユーザーに提供する。改善された触覚的フィードバックを提供することにより、(例えば、適切な入力を提供するようにユーザーを支援し、仮想オブジェクトを配置する不要な追加の入力を減少させることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device uses one or more tactile output generators 167 in response to detection of each plane (eg, floor surface 5038) in the field of view of one or more cameras. It outputs a tactile output indicating the detection of each plane in the field of view of one or more cameras (928). In some embodiments, the field of view 6036 may be shown before the field of view plane is identified. In some embodiments, additional user interface controls and / or icons are superimposed on the real-world image in the field of view after at least one field of view has been detected or the entire field of view has been identified. .. By outputting a tactile output indicating that the plane has been detected in the field of view of the camera, the user is provided with feedback indicating that the plane has been detected. Improve device usability by providing improved tactile feedback (eg, by assisting the user in providing the appropriate input and reducing unnecessary additional input to place virtual objects). In addition, it reduces the power consumption of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

一部の実施形態では、ディスプレイ上の仮想オブジェクトの第3の表現のサイズは、仮想オブジェクトのシミュレートされた実世界サイズと、1つ以上のカメラと1つ以上のカメラの視野6036内の場所との間の距離とに基づいて決定され(930)、それと共に仮想オブジェクト(例えば、仮想椅子5020)の第3の表現は、一定の空間的関係(例えば、仮想オブジェクトが付される床面5038などのプレーン)を有する。一部の実施形態では、仮想オブジェクトの第3の表現のサイズは、1つ以上のカメラの視野に対する仮想オブジェクトの第3の表現のサイズの縮尺が維持されるように制約される。一部の実施形態では、1つ以上の物理的寸法パラメータ(例えば、長さ、幅、深さ、及び/又は半径)は、仮想オブジェクトについて定義される。一部の実施形態では、第2のユーザーインターフェース(例えば、ステージングユーザーインターフェース)において、仮想オブジェクトは、その定義された物理的寸法パラメータによって制約されない(例えば、仮想オブジェクトのサイズは、ユーザー入力に応答して変更可能である)。一部の実施形態では、仮想オブジェクトの第3の表現は、その定義された寸法パラメータによって制約される。視野内に表される物理的環境に対する拡張現実ビュー内の仮想オブジェクトの位置を変更するためのユーザー入力が検出されたとき、又は視野のズームレベルを変更するためのユーザー入力が検出されたとき、又はデバイスの周囲の物理的環境に対して移動させるためのユーザー入力が検出されたとき、仮想オブジェクトの外観(例えば、サイズ、ビューイング視点)は、(例えば、仮想オブジェクトのアンカー平面と拡張現実環境内のものとの間の一定の空間的関係によって表現されるような)仮想オブジェクトと物理的環境との間の一定の空間的関係と、仮想オブジェクトの所定の寸法パラメータ及び物理的環境の実際の寸法に基づく一定の縮尺とによって制約されるやり方で変化する。(例えば、仮想オブジェクトの実世界サイズをシミュレートするために仮想オブジェクトの第3の表現をリサイズように更なるユーザー入力を必要とせずに)仮想オブジェクトのシミュレートされた実世界サイズと、1つ以上のカメラと1つ以上のカメラの視野内の場所との間の距離に基づいて仮想オブジェクトの第3の表現のサイズを決定することにより、デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the size of the third representation of the virtual object on the display is the simulated real-world size of the virtual object and its location within the field of view 6036 of one or more cameras and one or more cameras. A third representation of a virtual object (eg, a virtual chair 5020), determined based on the distance to and from (930), is that the third representation of the virtual object (eg, the virtual chair 5020) is a certain spatial relationship (eg, the floor surface 5038 to which the virtual object is attached). Etc. have a plane). In some embodiments, the size of the third representation of the virtual object is constrained to maintain a scale of the size of the third representation of the virtual object with respect to the field of view of one or more cameras. In some embodiments, one or more physical dimensional parameters (eg, length, width, depth, and / or radius) are defined for the virtual object. In some embodiments, in a second user interface (eg, a staging user interface), the virtual object is not constrained by its defined physical dimension parameters (eg, the size of the virtual object responds to user input). Can be changed). In some embodiments, the third representation of the virtual object is constrained by its defined dimensional parameters. When user input to change the position of a virtual object in the augmented reality view with respect to the physical environment represented in the field is detected, or when user input to change the zoom level of the field is detected. Or when user input to move relative to the physical environment around the device is detected, the appearance of the virtual object (eg size, viewing perspective) is (eg, the anchor plane of the virtual object and the augmented real environment). The constant spatial relationship between the virtual object and the physical environment (as represented by the constant spatial relationship between the things in) and the given dimensional parameters of the virtual object and the actual physical environment. It varies in a manner constrained by a constant scale based on dimensions. One with the simulated real-world size of the virtual object (for example, without the need for further user input to resize the third representation of the virtual object to simulate the real-world size of the virtual object). By determining the size of the third representation of the virtual object based on the distance between the above cameras and a location within the field of view of one or more cameras, the usability of the device is improved and the user can further use the device. Reduces device power usage and improves battery life by enabling faster and more efficient use of the device.

一部の実施形態では、仮想オブジェクトを拡張現実環境内に表示する要求に対応する第2の入力は、(例えば、距離閾値を超えて増大する距離だけ、定められた境界を越えて、及び/又ディスプレイ若しくは第2のユーザーインターフェース領域の縁部(例えば、底縁、上縁、及び又は側縁)の閾値距離内にある位置まで)仮想オブジェクトの第2の表現を(選択して)ドラッグする入力を含む(932)。仮想オブジェクトを拡張現実環境内に表示する要求に対応する第2の入力の検出に応答して、仮想オブジェクトの第3の表現をカメラの視野の表現と共に表示することによって、第2のユーザーインターフェースを追加の表示された制御(例えば、第2のユーザーインターフェースから拡張現実環境を表示する制御)で乱すことなく追加の制御オプションを提供する。第2のユーザーインターフェースを追加の表示された制御で乱すことなく追加の制御オプションを提供することによって、デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, a second input corresponding to a request to display a virtual object in an augmented reality environment (eg, by a distance that increases beyond a distance threshold, beyond a defined boundary, and / Also drag (select) a second representation of the virtual object to a position within a threshold distance of the display or the edge of the second user interface area (eg, the bottom edge, top edge, or side edge). Includes input (932). A second user interface by displaying a third representation of the virtual object along with a representation of the camera's field of view in response to the detection of a second input corresponding to the request to display the virtual object in an augmented reality environment. It provides additional control options without disruption with additional displayed controls (eg, controls that display an augmented reality environment from a second user interface). By providing additional control options without disturbing the second user interface with additional displayed controls, it improves the usability of the device and also allows the user to use the device faster and more efficiently. By enabling it, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、第2のユーザーインターフェース領域(例えば、図6Zに示すようなステージングユーザーインターフェース6010)に仮想オブジェクトの第2の表現を表示しつつ、デバイスは、第1のユーザーインターフェース領域を再表示するそれぞれの基準を満たす第4の入力(例えば、仮想オブジェクトの第2の表現に対応するタッチ感知面上の場所、又はタッチ感知面上の別の場所(例えば、第2のユーザーインターフェース領域の底部又は縁部)でのタップ、強い押圧、又はタッチ保持及びドラッグ入力、並びに/あるいは第1のユーザーインターフェースの領域に復帰する制御に対応するタッチ感知面上の位置での入力)を検出し(934)、この第4の入力の検出に応答して、デバイスは、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示するのを中止し、デバイスは、第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を再表示する。例えば、図6Z~6ACに示すように、ステージングユーザーインターフェース6010に表示されたバック制御6016に対応する位置での接触6042による入力に応答して、デバイスは、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)に仮想椅子5020の第2の表現を表示するのを中止し、デバイスは、第1のユーザーインターフェース領域(例えば、メッセージングユーザーインターフェース5008)に仮想椅子5020の第1の表現を再表示する。一部の実施形態では、仮想オブジェクトの第1の表現は、ステージングビュー及び/又は拡張現実ビューに遷移する前に示されたものと同じ外観、位置、及び/又は向きで第1のユーザーインターフェース領域に表示される。例えば、図6ACにおいて、仮想椅子5020は、図6Aにおけるメッセージングユーザーインターフェース5008に表示される仮想椅子5020と同じ向きでメッセージングユーザーインターフェース5008に表示される。一部の実施形態では、デバイスは、第1のユーザーインターフェース領域における仮想オブジェクトの表示に戻るように遷移する際に、仮想オブジェクトをスクリーン上に連続的に表示する。例えば、図6Y~6Cにおいて、仮想椅子5020は、ステージングユーザーインターフェース6010の表示からメッセージングユーザーインターフェース5008の表示への遷移中に連続的に表示される。第2のユーザーインターフェースに仮想オブジェクトの第2の表現を表示しつつ検出された第4の入力が第1のユーザーインターフェースを再表示する基準を満たすか否かによって、第1のユーザーインターフェースに仮想オブジェクトの第1の表現を再表示するか否かを判定することで、第4の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device displays the first user interface area while displaying a second representation of the virtual object in the second user interface area (eg, staging user interface 6010 as shown in FIG. 6Z). A fourth input that meets each criterion to be redisplayed (eg, a location on the touch-sensitive surface corresponding to the second representation of the virtual object, or another location on the touch-sensitive surface (eg, a second user interface area). Detects taps, strong presses, or touch-holding and dragging inputs at the bottom or edge of the interface, and / or inputs at a position on the touch-sensitive surface that corresponds to control returning to the area of the first user interface. (934) In response to the detection of this fourth input, the device ceases to display the second representation of the virtual object in the second user interface area, and the device stops displaying the second representation of the virtual object in the first user interface area. Redisplays the first representation of the virtual object in. For example, as shown in FIGS. 6Z-6AC, in response to input by contact 6042 at the position corresponding to the back control 6016 displayed on the staging user interface 6010, the device receives a second user interface region (eg, staging). Stopping displaying the second representation of the virtual chair 5020 in the user interface 6010), the device redisplays the first representation of the virtual chair 5020 in the first user interface area (eg, messaging user interface 5008). do. In some embodiments, the first representation of the virtual object is the first user interface area with the same appearance, position, and / or orientation as shown before transitioning to the staging view and / or the augmented reality view. Is displayed in. For example, in FIG. 6AC, the virtual chair 5020 is displayed in the messaging user interface 5008 in the same orientation as the virtual chair 5020 displayed in the messaging user interface 5008 in FIG. 6A. In some embodiments, the device continuously displays the virtual object on the screen as it transitions back to displaying the virtual object in the first user interface area. For example, in FIGS. 6Y-6C, the virtual chair 5020 is continuously displayed during the transition from the display of the staging user interface 6010 to the display of the messaging user interface 5008. A virtual object in the first user interface, depending on whether the fourth input detected while displaying the second representation of the virtual object in the second user interface meets the criteria for redisplaying the first user interface. By determining whether to redisplay the first representation of, it is possible to perform a plurality of different types of actions in response to the fourth input. By allowing users to perform different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and, in addition, allowing the user to perform the device faster. And by enabling efficient use, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、(例えば、図6Uに示すように)1つ以上のカメラの視野5036の表現と共に仮想オブジェクトの第3の表現を表示しつつ、デバイスは、第2のユーザーインターフェース領域を再表示するそれぞれの基準を満たす第5の入力(例えば、仮想オブジェクトの第3の表現に対応するタッチ感知面上の位置又はタッチ感知面上の別の位置でのタップ、強い押圧、又はタッチ及びドラッグ入力、並びに/あるいは第2のユーザーインターフェース領域の表示に復帰する制御に対応するタッチ感知面上の場所での入力)を検出し(936)、この第5の入力の検出に応答して、デバイスは、仮想オブジェクトの第3の表現及び1つ以上のカメラの視野の表現を表示するのを中止し、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を再表示する。例えば、図6V~図6Yに示すように、カメラの視野6036を含む第3のユーザーインターフェースに表示されるトグル制御6018に対応する位置での接触6040による入力に応答して、デバイスは、カメラの視野6036を表示するのを中止し、ステージングユーザーインターフェース6010を再表示する。一部の実施形態では、仮想オブジェクトの第2の表現は、拡張現実ビューに示されるものと同じ向きで第2のユーザーインターフェース領域に表示される。一部の実施形態では、デバイスは、第2のユーザーインターフェース領域における仮想オブジェクトの表示に戻るように遷移する際に、仮想オブジェクトをスクリーン上に連続的に表示する。例えば、図6V~6Yにおいて、仮想椅子5020は、カメラの視野6036の表示からステージングユーザーインターフェース6010の表示への遷移中に連続的に表示される。カメラの視野と共に仮想オブジェクトの第3の表現を表示しつつ検出された第5の入力が、第2のユーザーインターフェースを再表示する基準を満たすか否かによって、第2のユーザーインターフェースに仮想オブジェクトの第2の表現を再表示するか否かを判定することで、第5の入力に応答して複数の異なるタイプの動作の実行を可能にする。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device displays a third representation of the virtual object along with a representation of the field of view 5036 of one or more cameras (eg, as shown in FIG. 6U), while the device displays a second user interface area. A fifth input that meets each criterion to be redisplayed (eg, tap, strong press, or touch at a position on the touch-sensitive surface or another position on the touch-sensitive surface corresponding to the third representation of the virtual object). Detects (936) the drag input and / or the input at a location on the touch-sensitive surface that corresponds to the control to return to the display of the second user interface area, and in response to the detection of this fifth input. The device stops displaying the third representation of the virtual object and the representation of the field of view of one or more cameras, and redisplays the second representation of the virtual object in the second user interface area. For example, as shown in FIGS. 6V-6Y, the device responds to input by contact 6040 at a position corresponding to toggle control 6018 displayed in a third user interface including camera field of view 6036. Stop displaying the field of view 6036 and redisplay the staging user interface 6010. In some embodiments, the second representation of the virtual object is displayed in the second user interface area in the same orientation as that shown in the augmented reality view. In some embodiments, the device continuously displays the virtual object on the screen as it transitions back to displaying the virtual object in the second user interface area. For example, in FIGS. 6V-6Y, the virtual chair 5020 is continuously displayed during the transition from the display of the camera field of view 6036 to the display of the staging user interface 6010. Depending on whether the fifth input detected while displaying the third representation of the virtual object along with the field of view of the camera meets the criteria for redisplaying the second user interface, the virtual object's third user interface Determining whether to redisplay the second representation allows the execution of a plurality of different types of actions in response to the fifth input. By allowing users to perform different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and, in addition, allowing the user to perform the device faster. And by enabling efficient use, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現6036と共に表示しつつ、デバイスは、第1のユーザーインターフェース領域(例えば、メッセージングユーザーインターフェース5008)を再表示するそれぞれの基準を満たす第6の入力を検出し(938)、この第6の入力の検出に応答して、デバイスは、(例えば、図6Uに示すような)仮想オブジェクト(例えば、仮想椅子5020)の第3の表現及び1つ以上のカメラの視野6036の表現を表示するのを中止し、デバイスは、(例えば、図6ACに示すように)仮想オブジェクトの第1の表現を第1のユーザーインターフェースの領域に再表示する。一部の実施形態では、第6の入力は、例えば、仮想オブジェクトの第3の表現の表現に対応するタッチ感知面上の場所又はタッチ感知面上の別の位置でのタップ、強い押圧、又はタッチ及びドラッグ入力であり、並びに/あるいは第1のユーザーインターフェース領域の表示に復帰する制御に対応するタッチ感知面上の位置での入力である。一部の実施形態では、仮想オブジェクトの第1の表現は、ステージングビュー及び/又は拡張現実ビューに遷移する前に示されたものと同じ外観及び位置で第1のユーザーインターフェース領域に表示される。一部の実施形態では、デバイスは、第1のユーザーインターフェース領域における仮想オブジェクトの表示に戻るように遷移する際に、仮想オブジェクトをスクリーン上に連続的に表示する。カメラの視野と共に仮想オブジェクトの第3の表現を表示しつつ検出された第6の入力が第1のユーザーインターフェースを再表示する基準を満たすか否かによって、第1のユーザーインターフェースに仮想オブジェクトの第1の表現を再表示するか否かを判定することで、第6の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device redisplays the first user interface area (eg, messaging user interface 5008) while displaying a third representation of the virtual object with a representation 6036 of the visual field of one or more cameras. Detects a sixth input that meets each criterion (938), and in response to the detection of this sixth input, the device receives a virtual object (eg, as shown in FIG. 6U) (eg, virtual chair 5020). ) Stops displaying the third representation and the representation of the field of view 6036 of one or more cameras, and the device makes the first representation of the virtual object (eg, as shown in FIG. 6AC) the first user. Redisplay in the interface area. In some embodiments, the sixth input is, for example, a tap, strong press, or strong press at a location on the touch-sensitive surface or another position on the touch-sensitive surface that corresponds to the representation of the third representation of the virtual object. It is a touch and drag input, and / or an input at a position on the touch sensing surface corresponding to the control to return to the display of the first user interface area. In some embodiments, the first representation of the virtual object is displayed in the first user interface area with the same appearance and position as shown prior to transitioning to the staging view and / or the augmented reality view. In some embodiments, the device continuously displays the virtual object on the screen as it transitions back to displaying the virtual object in the first user interface area. Depending on whether the sixth input detected while displaying the third representation of the virtual object along with the field of view of the camera meets the criteria for redisplaying the first user interface, the first user interface is the third of the virtual object. By determining whether or not to redisplay the representation of 1, a plurality of different types of actions can be performed in response to the sixth input. By allowing users to perform different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and, in addition, allowing the user to perform the device faster. And by enabling efficient use, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、第1の接触による第1の入力の検出に応答し、第1の接触による入力が第1の基準を満たすという判定に応じて、デバイスは、第1のユーザーインターフェース領域(例えば、メッセージングユーザーインターフェース5008)の表示から第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)の表示へ遷移するときに、第1のユーザーインターフェース領域内の仮想オブジェクトの第1の表現を第2のユーザーインターフェース領域内の仮想オブジェクトの第2の表現に変形するアニメーション(例えば、移動、1つ以上の軸を中心にした回転、及び/又はスケーリング)の表示を含んで、仮想オブジェクトを連続的に表示する(940)。例えば、図6E~6Iにおいて、仮想椅子5020は、メッセージングユーザーインターフェース5008の表示からステージングユーザーインターフェース6010の表示への遷移中に連続的に表示され、アニメーション化される(例えば、仮想椅子5020の向きが変化する)。一部の実施形態では、仮想オブジェクトは、(例えば、第1のユーザーインターフェース領域に示されるような仮想オブジェクトの第1の表現の形状及び向きに基づいて定められる)カメラの視野内のプレーンに対する定められた向き、位置、及び/又は距離を有し、第2のユーザーインターフェース領域に遷移するときに、仮想オブジェクトの第1の表現は、ディスプレイ上の新しい位置(例えば、第2のユーザーインターフェース領域内の仮想ステージングプレーンの中心)で仮想オブジェクトの第2の表現に移動し、リサイズし、及び/又は向きを変え、移動中又は移動終了時に、デバイスの周囲の物理的環境から独立して定められる所定の仮想ステージングプレーンに対して仮想オブジェクトが所定の角度であるように、仮想オブジェクトは向きを変える。第1のユーザーインターフェースにおける仮想オブジェクトの第1の表現が第2のユーザーインターフェースにおける仮想オブジェクトの第2の表現に変形するときにアニメーションを表示することにより、第1の入力が第1の基準を満たすことを示すフィードバックをユーザーに提供する。改善されたフィードバックを提供することにより、(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device responds to the detection of the first input by the first contact and, in response to the determination that the input by the first contact meets the first criterion, the device is in the first user interface area. When transitioning from the display of (eg, messaging user interface 5008) to the display of the second user interface area (eg, staging user interface 6010), the first representation of the virtual object in the first user interface area is first. Continuous virtual objects, including displaying animations (eg, moving, rotating around one or more axes, and / or scaling) that transform into a second representation of the virtual object within the two user interface areas. Displayed in (940). For example, in FIGS. 6E-6I, the virtual chair 5020 is continuously displayed and animated during the transition from the display of the messaging user interface 5008 to the display of the staging user interface 6010 (eg, the orientation of the virtual chair 5020). Change). In some embodiments, the virtual object is defined with respect to the plane in the camera's field of view (eg, determined based on the shape and orientation of the first representation of the virtual object as shown in the first user interface area). When transitioning to a second user interface area with the orientation, position, and / or distance, the first representation of the virtual object is in a new position on the display (eg, within the second user interface area). Moves to a second representation of the virtual object (at the center of the virtual staging plane), resizes, and / or turns, and is defined independently of the physical environment around the device during or at the end of the move. The virtual object turns so that the virtual object is at a given angle to the virtual staging plane of. The first input meets the first criterion by displaying an animation when the first representation of the virtual object in the first user interface transforms into the second representation of the virtual object in the second user interface. Provide feedback to the user to show that. Improve device usability by providing improved feedback (eg, by assisting users in providing appropriate input when interacting with / interacting with the device and reducing user error). In addition, it reduces the power consumption of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

一部の実施形態では、第2の接触による第2の入力の検出に応答し、第2の接触による第2の入力が拡張現実環境に仮想オブジェクトを表示する要求に対応するという判定に応じて、デバイスは、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)の表示から1つ以上のカメラの視野6036を含む第3のユーザーインターフェース領域の表示へ遷移するときに、第2のユーザーインターフェース領域内の仮想オブジェクトの第2の表現を、1つ以上のカメラの視野を含む第3のユーザーインターフェース領域内の仮想オブジェクトの第3の表現に変形するアニメーション(例えば、移動、1つ以上の軸を中心にした回転、及び/又はスケーリング)の表示を含んで仮想オブジェクトを連続的に表示する(942)。例えば、図6Q~6Uにおいて、仮想椅子5020は、ステージングユーザーインターフェース6010の表示からカメラの視野6036の表示への遷移中に連続的に表示され、アニメーション化される(例えば、仮想椅子5020の位置及びサイズが変化する)。一部の実施形態では、仮想オブジェクトは、1つ以上のカメラの視野内で検出される視野平面(例えば、ユーザーインターフェースオブジェクトの三次元表現を支持することができる垂直壁又は水平床面などの物理的表面)に対して仮想オブジェクトが所定の向き、位置、及び/又は距離にあるように向きを変える。第2のユーザーインターフェースにおける仮想オブジェクトの第2の表現が第3のユーザーインターフェースにおける仮想オブジェクトの第3の表現に変形するときにアニメーションを表示することで、仮想オブジェクトを拡張現実環境に表示する要求に第2の入力が対応することを示すフィードバックをユーザーに提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to the determination that the second input from the second contact corresponds to the request to display the virtual object in the augmented real environment, in response to the detection of the second input by the second contact. , The device transitions from the display of the second user interface area (eg, the staging user interface 6010) to the display of the third user interface area including the view 6036 of one or more cameras. An animation that transforms a second representation of a virtual object in a region into a third representation of a virtual object in a third user interface region that includes the field of view of one or more cameras (eg, move, one or more axes). The virtual object is displayed continuously, including the display of rotation and / or scaling around. (942). For example, in FIGS. 6Q-6U, the virtual chair 5020 is continuously displayed and animated (eg, the position of the virtual chair 5020 and) during the transition from the display of the staging user interface 6010 to the display of the camera field of view 6036. The size changes). In some embodiments, the virtual object is a physics such as a vertical wall or horizontal floor that can support a three-dimensional representation of a user interface object that is detected within the field of view of one or more cameras. The virtual object is oriented so that it is in a predetermined orientation, position, and / or distance with respect to the target surface). A request to display a virtual object in an augmented reality environment by displaying an animation when the second representation of the virtual object in the second user interface transforms into the third representation of the virtual object in the third user interface. It provides the user with feedback that the second input corresponds. Operate the device by providing the user with improved visual feedback (eg, by assisting the user in providing appropriate input when interacting with / interacting with the device and reducing user error). It improves the power consumption of the device and improves the battery life by allowing the user to use the device more quickly and efficiently.

図9A~9Dにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)に関して本明細書に記載される他のプロセスの詳細は、図9A~9Dに関して上記した方法900にも、同様に適用可能であることに留意されたい。例えば、方法900を参照して上記した接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、視野、触知出力、移動、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)を参照して本明細書に記載した接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、視野、触知出力、移動、及び/又はアニメーションの特徴のうちの1つ以上を有する。簡潔にするために、これらの詳細はここでは繰り返さない。 Understand that the particular order described for the actions in FIGS. 9A-9D is merely an example and the described order is not intended to indicate that the actions are the only order in which they can be performed. I want to be. Those of skill in the art will recognize various methods for reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 800, 900, 16000, 17000, 18000, 19000, and 20000) are shown in FIGS. 9A-. Note that the method 900 described above for 9D is similarly applicable. For example, the contacts, inputs, virtual objects, user interface areas, intensity thresholds, visual fields, tactile outputs, movements, and / or animations described above with reference to Method 900 are optionally described herein. Contact, input, virtual object, user interface area, intensity threshold, visual field, tactile as described herein with reference to other methods (eg, methods 800, 900, 16000, 17000, 18000, 19000, and 20000). It has one or more of the features of output, movement, and / or animation. For the sake of brevity, these details are not repeated here.

図10A~10Dは、一部の実施形態による、アイテムが仮想三次元オブジェクトに対応することを示すために視覚的な指示と共にアイテムを表示する方法1000を示すフロー図である。方法1000は、ディスプレイ及びタッチ感知面(例えば、ディスプレイとタッチ感知面の両方としての役割を果たすタッチスクリーンディスプレイ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)で実行される。一部の実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。一部の実施形態では、ディスプレイはタッチ感知面から分離している。方法1000の一部の動作は任意選択で組み合わされ、及び/又は一部の動作の順序は任意選択で変更される。 10A-10D are flow diagrams illustrating a method 1000 of displaying an item with visual instructions to indicate that the item corresponds to a virtual 3D object, according to some embodiments. Method 1000 comprises an electronic device (eg, device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A) having a display and a touch-sensitive surface (eg, a touch screen display that serves as both a display and a touch-sensitive surface). ) Is executed. In some embodiments, the display is a touch screen display with a touch sensitive surface on or embedded in the display. In some embodiments, the display is separated from the touch sensitive surface. Some actions of Method 1000 are optionally combined and / or the order of some actions is changed arbitrarily.

以下に説明するように、方法1000は、第1及び第2のユーザーインターフェースにアイテムを表示することに関する。各アイテムは、アイテムがそれぞれの仮想三次元オブジェクトに対応するか否かによって、アイテムが仮想三次元オブジェクトに対応することを示す視覚的な指示と共に、又は視覚的な指示なしで表示される。アイテムが仮想三次元オブジェクトであるか否かユーザーに指示を与えることで、(例えば、アイテムが仮想三次元オブジェクトであるか否かによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第1のアイテムに対して動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 As described below, Method 1000 relates to displaying items in the first and second user interfaces. Each item is displayed with or without visual instructions indicating that the item corresponds to a virtual 3D object, depending on whether the item corresponds to its virtual 3D object. By instructing the user whether the item is a virtual 3D object (for example, by assisting the user to provide the appropriate input depending on whether the item is a virtual 3D object). Powers the device by increasing the efficiency with which it can perform actions on the first item, thereby improving the usability of the device and also allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life.

デバイスは、第1のアイテム(例えば、アイコン、サムネイル画像、画像、絵文字、添付物、ステッカー、アプリアイコン、アバター等)を含む第1のユーザーインターフェースを表示する要求を受信する(1002)。例えば、一部の実施形態では、要求は、第1のアイテムの表現を第1のアイテムに関連付けられた所定の環境に表示するユーザーインターフェース(例えば、図7Bに示すような、インターネットブラウザユーザーインターフェース5060)を開く(例えば、図7に関して説明したような)入力である。所定の環境は、任意選択で、アプリケーション(例えば、電子メールアプリケーション、メッセージングアプリケーション、ブラウザアプリケーション、ワード処理アプリケーション、電子リーダアプリケーション等)のユーザーインターフェース、又はシステムユーザーインターフェース(例えば、ロック画面、通知インターフェース、サジェスチョンインターフェース、コントロールパネルユーザーインターフェース、ホーム画面ユーザーインターフェース等)である。 The device receives a request to display a first user interface that includes a first item (eg, an icon, a thumbnail image, an image, a pictogram, an attachment, a sticker, an app icon, an avatar, etc.) (1002). For example, in some embodiments, the request is a user interface that displays a representation of the first item in a given environment associated with the first item (eg, an internet browser user interface 5060, as shown in FIG. 7B). ) Is an input (eg, as described for FIG. 7). The given environment is optionally the user interface of the application (eg, email application, messaging application, browser application, word processing application, electronic reader application, etc.) or system user interface (eg, lock screen, notification interface, suggestion). Interface, control panel user interface, home screen user interface, etc.).

第1のユーザーインターフェースを表示する要求に応答して、デバイスは、第1のユーザーインターフェース(例えば、図7Bで示すように、インターネットブラウザユーザーインターフェース5060)を第1のアイテムの表現と共に表示する(1004)。第1のアイテムがそれぞれの仮想三次元オブジェクトに対応するとの判定に応じて、デバイスは、第1のアイテムがそれぞれの第1の仮想三次元オブジェクトに対応することを示すために、第1のアイテムの表現を視覚的な指示と共に表示する(例えば、第1のアイテム、輪郭、及び/又はテキストの表現に対応する位置で表示されるアイコン及び/又は背景パネルなどの画像)。第1のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定に応じて、デバイスは、第1のアイテムの表現を視覚的な指示なしで表示する。例えば、インターネットブラウザユーザーインターフェース5060では、図7Bに示すように、(仮想三次元ランプオブジェクト5084の表現を含む)ウェブオブジェクト5068は、仮想ランプ8084が仮想三次元オブジェクトであることを示すために視覚的な指示(仮想オブジェクトインジケータ5080)と共に表示され、ウェブオブジェクト5074は、ウェブオブジェクト5074が仮想三次元オブジェクトに対応するアイテムを含んでいないので、視覚的なオブジェクインジケータなしで表示される。 In response to a request to display the first user interface, the device displays the first user interface (eg, Internet browser user interface 5060, as shown in FIG. 7B) with a representation of the first item (1004). ). In response to the determination that the first item corresponds to each virtual 3D object, the device determines that the first item corresponds to each first virtual 3D object. Display the representation of (eg, an image such as an icon and / or background panel displayed at a position corresponding to the representation of the first item, contour, and / or text). In response to the determination that the first item does not correspond to each virtual 3D object, the device displays the representation of the first item without visual instructions. For example, in the internet browser user interface 5060, as shown in FIG. 7B, the web object 5068 (including the representation of the virtual three-dimensional lamp object 5084) is a visual to indicate that the virtual lamp 8084 is a virtual three-dimensional object. Displayed with an instruction (virtual object indicator 5080), the web object 5074 is displayed without a visual object indicator because the web object 5074 does not contain an item corresponding to the virtual three-dimensional object.

第1のアイテムの表現を表示した後に、デバイスは、第2のアイテム(例えば、アイコン、サムネイル画像、画像、絵文字、添付物、ステッカー、アプリアイコン、アバター等)を含む第2のユーザーインターフェース(例えば、図7Mに示すような、メッセージングユーザーインターフェース5008)を表示するために要求(例えば、図7H~7Lに関して説明したような入力)を受信する(1006)。第2のアイテムは第1のアイテムとは異なり、第2のユーザーインターフェースは第1のユーザーインターフェースとは異なる。例えば、一部の実施形態では、要求は、第2のアイテムに関連付けられた所定の環境に第2のアイテムの表現を表示するユーザーインターフェースを開く別の入力である。所定の環境は、任意選択で、第1のアイテムを示すのに使用されるアプリケーション以外のアプリケーション(例えば、電子メールアプリケーション、メッセージングアプリケーション、ブラウザアプリケーション、ワード処理アプリケーション、電子リーダアプリケーション等)のユーザーインターフェースであり、又は第1のアイテムを示すのに使用されるシステムユーザーインターフェース以外のシステムユーザーインターフェース(例えば、ロック画面、通知インターフェース、サジェスチョンインターフェース、コントロールパネルユーザーインターフェース、ホーム画面ユーザーインターフェース等)にある。 After displaying the representation of the first item, the device has a second user interface (eg, an icon, thumbnail image, image, pictogram, attachment, sticker, app icon, avatar, etc.) that includes the second item. , A request (eg, an input as described for FIGS. 7H-7L) to display the messaging user interface 5008, as shown in FIG. 7M (1006). The second item is different from the first item and the second user interface is different from the first user interface. For example, in some embodiments, the request is another input that opens a user interface that displays a representation of the second item in a given environment associated with the second item. The given environment is optionally the user interface of an application other than the application used to indicate the first item (eg, email application, messaging application, browser application, word processing application, electronic reader application, etc.). Yes, or in a system user interface other than the system user interface used to indicate the first item (eg, lock screen, notification interface, suggestion interface, control panel user interface, home screen user interface, etc.).

第2のユーザーインターフェースを表示する要求に応答して、デバイスは、第2のユーザーインターフェース(例えば、図7Mで示すように、メッセージングユーザーインターフェース5008)を第2のアイテムの表現と共に表示する(1008)。第2のアイテムがそれぞれの仮想三次元オブジェクトに対応するとの判定に応じて、デバイスは、第2のアイテムがそれぞれの第2の仮想三次元オブジェクトに対応することを示すために、第2のアイテムの表現を視覚的な指示(例えば、第1のアイテムが仮想三次元オブジェクトに対応することを示す同一の視覚的な指示)と共に表示する。第2のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定に応じて、デバイスは、第2のアイテムの表現を視覚的な指示なしで表示する。例えば、メッセージングユーザーインターフェース5008において、図7Mに示すように、仮想三次元椅子オブジェクト5020は、仮想椅子5020が仮想三次元オブジェクトであることを示す視覚的な指示(仮想オブジェクトインジケータ5022)と共に表示され、絵文字7020は、仮想三次元オブジェクトに対応するアイテムを絵文字7020が含んでいないので、視覚的なオブジェクトインジケータなしで表示される。 In response to a request to display the second user interface, the device displays the second user interface (eg, messaging user interface 5008, as shown in FIG. 7M) with a representation of the second item (1008). .. In response to the determination that the second item corresponds to each virtual 3D object, the device indicates that the second item corresponds to each second virtual 3D object. Is displayed with a visual instruction (eg, the same visual instruction that the first item corresponds to a virtual 3D object). In response to the determination that the second item does not correspond to each virtual 3D object, the device displays the representation of the second item without visual instructions. For example, in the messaging user interface 5008, as shown in FIG. 7M, the virtual 3D chair object 5020 is displayed with a visual indication (virtual object indicator 5022) that the virtual chair 5020 is a virtual 3D object. The pictogram 7020 is displayed without a visual object indicator because the pictogram 7020 does not contain an item corresponding to the virtual 3D object.

一部の実施形態では、第1のアイテムがそれぞれの第1の仮想三次元オブジェクトに対応することを示すために、第1のアイテム(例えば、仮想ランプ5084)の表現を視覚的な指示(例えば、仮想オブジェクトインジケータ5080)と共に表示することは、(例えば、方向センサ(例えば、デバイス100の1つ以上の加速度計168)により検出されるような)第1のデバイス向きから第2のデバイス向きへの変化という結果になるデバイスの移動の検出に応答して、第1のデバイス向きから第2のデバイス向きへの変化に対応する第1のアイテムの移動(例えば、第1のユーザーインターフェースに対する第1のアイテムの傾斜及び/又は第1のアイテムの移動)を表示することを含む(1010)。例えば、第1のデバイス向きは、図7F1に示すようなデバイス100の向きであり、第2のデバイス向きは、図7G1に示すようなデバイス100の向きである。図7F1~図7G1に示す移動に応答して、第1のアイテム(例えば、仮想ランプ5084)は、(例えば、図7F2~図7G2に示すように)傾斜する。一部の実施形態では、第2のオブジェクトが仮想三次元オブジェクトに対応する場合、第2のオブジェクトは、(例えば、第2のオブジェクトも仮想三次元オブジェクトに対応することを示すために)上記のようにデバイスの移動の検出にも応答する。 In some embodiments, the representation of the first item (eg, virtual lamp 5084) is visually indicated (eg, to indicate that the first item corresponds to each first virtual three-dimensional object). , Virtual object indicator 5080) to display from a first device orientation (eg, as detected by a direction sensor (eg, one or more accelerometers 168 of device 100)) to a second device orientation. In response to the detection of device movement resulting in a change in, the movement of the first item corresponding to the change from the first device orientation to the second device orientation (eg, the first with respect to the first user interface). Includes displaying the tilt and / or movement of the first item of the item (1010). For example, the first device orientation is the orientation of the device 100 as shown in FIG. 7F1, and the second device orientation is the orientation of the device 100 as shown in FIG. 7G1. In response to the movements shown in FIGS. 7F1-7G1, the first item (eg, virtual lamp 5084) tilts (eg, as shown in FIGS. 7F2-7G2). In some embodiments, if the second object corresponds to a virtual 3D object, the second object will (eg, to show that the second object also corresponds to a virtual 3D object) above. It also responds to the detection of device movement.

第1のデバイス向きから第2のデバイス向きへの変化に対応する第1のアイテムの移動を表示することによって、仮想三次元オブジェクトの挙動を示すユーザーへの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、ユーザーが、更なる入力を行う必要がない向きから仮想三次元オブジェクトを見ることを可能にすることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the movement of the first item in response to the change from the first device orientation to the second device orientation, it provides visual feedback to the user showing the behavior of the virtual 3D object. Improve device usability by providing users with improved visual feedback (for example, by allowing users to view virtual 3D objects from orientations that do not require further input). In addition, it reduces the power consumption of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

一部の実施形態では、第1のアイテムがそれぞれの第1の仮想三次元オブジェクトに対応することを示すための視覚的な指示と共に第1のアイテムの表現を表示することは、第1のアイテムの表現が第1のユーザーインターフェースに表示されている間に第1のユーザーインターフェースをスクロールする第1の接触による第1の入力(例えば、第1の方向の第1のユーザーインターフェース上のスワイプ入力、又はスクロールバー端部上のスクロールボタンに対するタッチ保持入力)の検出に応答して、デバイスは、第1のユーザーインターフェースのスクロールに応じてディスプレイ上で第1のアイテムの表現を並進し(例えば、第1のユーザーインターフェースになされるスクロール量に基づく距離だけ、及びスクロールの反対方向に、第1のアイテムのアンカー位置を移動させる(例えば、第1のユーザーインターフェースがタッチ感知面をわたって移動する接触によって上方にドラッグされるときに、第1のアイテムの表現は、第1のユーザーインターフェースと共にディスプレイ上で上方に移動する))、このデバイスは、第1のユーザーインターフェースがスクロールされる方向に応じて第1のユーザーインターフェース(又はディスプレイ)によって定められるプレーンに対して第1のアイテムの表現を回転することを含む(1012)。例えば、図7C~7Dに示すように、仮想ランプ5084の表現がインターネットブラウザユーザーインターフェース5060に表示されている間にインターネットブラウザユーザーインターフェース5060をスクロールする接触7002による入力の検出に応答して、仮想ランプ5084はインターネットブラウザユーザーインターフェース5060のスクロールにしたがって並進させられ、仮想ランプ5084は接触7002の移動経路の方向にしたがってディスプレイ112に対して回転する。一部の実施形態では、第1のユーザーインターフェースが上方にドラッグされているとの判定に応じて、第1のアイテムの表現が第1のユーザーインターフェースと共に上方に移動し、第1のユーザーインターフェース上に示すような第1のアイテムのビューイング視点が、ユーザーが異なる視野角(例えば、低い角度)から第1のアイテムを見ているかのように変化する。一部の実施形態では、第2のユーザーインターフェースが上方にドラッグされているとの判定に応じて、第2のアイテムの表現は第2のユーザーインターフェースと共に上方に移動し、第2のユーザーインターフェース上に示すような第2のアイテムのビューイング視点が、ユーザーが異なる視野角(例えば、低い角度)から第2のアイテムを見ているかのように変化する。 In some embodiments, displaying a representation of the first item with visual instructions to indicate that the first item corresponds to each first virtual three-dimensional object is the first item. First input by first contact that scrolls through the first user interface while the representation of is displayed in the first user interface (eg, swipe input on the first user interface in the first direction, Or in response to the detection of a touch-hold input to the scroll button on the end of the scroll bar), the device translates the representation of the first item on the display in response to scrolling of the first user interface (eg, first. Move the anchor position of the first item by a distance based on the amount of scrolling made to one user interface, and in the opposite direction of the scroll (eg, by contact moving the first user interface across the touch sensitive surface). When dragged upwards, the representation of the first item moves upwards on the display along with the first user interface)), this device is the first depending on the direction in which the first user interface is scrolled. Includes rotating the representation of the first item with respect to the plane defined by one user interface (or display) (1012). For example, as shown in FIGS. 7C-7D, the virtual lamp responds to detection of input by contact 7002 scrolling the Internet browser user interface 5060 while the representation of the virtual lamp 5084 is displayed on the Internet browser user interface 5060. The 5084 is translated according to the scroll of the Internet browser user interface 5060, and the virtual lamp 5084 rotates with respect to the display 112 according to the direction of the travel path of the contact 7002. In some embodiments, the representation of the first item moves upward with the first user interface in response to the determination that the first user interface has been dragged upwards, onto the first user interface. The viewing viewpoint of the first item as shown in is changed as if the user is looking at the first item from a different viewing angle (eg, a lower angle). In some embodiments, the representation of the second item moves upward with the second user interface in response to the determination that the second user interface has been dragged upwards, onto the second user interface. The viewing viewpoint of the second item, as shown in, changes as if the user is looking at the second item from a different viewing angle (eg, a lower angle).

移動が第1のデバイス向きから第2のデバイス向きへの変化に対応する場合、アイテムの移動を表示することによって、デバイス向きの変化を示すユーザーへの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、ユーザーが、更なる入力を行う必要がない向きから仮想三次元オブジェクトを見ることを可能にすることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 If the move corresponds to a change from the first device orientation to the second device orientation, displaying the movement of the item provides visual feedback to the user indicating the change in device orientation. Improve device usability by providing users with improved visual feedback (for example, by allowing users to view virtual 3D objects from orientations that do not require further input). In addition, it reduces the power consumption of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

一部の実施形態では、第1のユーザーインターフェース(例えば、図7Bに示すようなインターネットブラウザユーザーインターフェース5060)に第1のアイテム(例えば、ランプオブジェクト5084)の表現を視覚的な指示(例えば、視覚的なオブジェクトインジケータ5080)と共に表示しつつ、デバイスは、第3のアイテムの表現を表示する(1014)ものであり、第3のアイテムが仮想三次元オブジェクトに対応していない(例えば、第3のアイテムは、拡張現実環境内でレンダリングできる任意の三次元オブジェクトに対応していない)ことを示すために、第3のアイテムの表現は、視覚的な指示なしで表示される。例えば、インターネットブラウザユーザーインターフェース5060において、図7Bで示すように、ウェブオブジェクト5074、5070、及び5076は、ウェブオブジェクト5074、5070、及び5076が仮想三次元オブジェクトに対応していないため、視覚的なオブジェクトインジケータなしで表示される。 In some embodiments, the first user interface (eg, Internet browser user interface 5060 as shown in FIG. 7B) is visually instructed (eg, visual) to represent the first item (eg, lamp object 5084). The device displays the representation of the third item (1014) while displaying with the object indicator 5080), and the third item does not correspond to the virtual three-dimensional object (eg, the third item). The representation of the third item is displayed without visual instructions to indicate that the item does not correspond to any three-dimensional object that can be rendered in the augmented real world). For example, in the Internet browser user interface 5060, as shown in FIG. 7B, the web objects 5074, 5070, and 5076 are visual objects because the web objects 5074, 5070, and 5076 do not correspond to virtual three-dimensional objects. Displayed without an indicator.

第1のユーザーインターフェースに、第1のアイテムが仮想三次元オブジェクトであることを示すための視覚的な指示と共に第1のアイテムを表示すると共に、視覚的な指示なしで表示される第3のアイテムを表示することで、(例えば、ユーザーが対話しているアイテムが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第1のユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 A third item displayed in the first user interface with visual instructions to indicate that the first item is a virtual three-dimensional object, and without visual instructions. By displaying (for example, by assisting the user to provide the appropriate input depending on whether the item the user is interacting with is a virtual three-dimensional object), the user provides a first user interface. Increases the efficiency with which you can perform operations, thereby improving the usability of the device, and reducing the power consumption of the device by allowing users to use the device faster and more efficiently. Improve battery life.

一部の実施形態では、第2のユーザーインターフェース(例えば、図7Mに示すようなメッセージングユーザーインターフェース5008)に、第2のアイテム(例えば、仮想椅子5020)の表現を視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に表示しつつ、デバイスは、第4のアイテム(例えば、絵文字7020)の表現を表示し(1016)、第4のアイテムがそれぞれの仮想三次元オブジェクトに対応していないことを示すために、第4のアイテムの表現は視覚的な指示なしで表示される。 In some embodiments, the second user interface (eg, messaging user interface 5008 as shown in FIG. 7M) is visually instructed (eg, virtual) to represent a second item (eg, virtual chair 5020). While displaying with the object indicator 5022), the device displays a representation of the fourth item (eg, pictogram 7020) (1016), indicating that the fourth item does not correspond to each virtual three-dimensional object. Therefore, the representation of the fourth item is displayed without visual instructions.

第2のユーザーインターフェースに、第2のアイテムが仮想三次元オブジェクトであることを示すための視覚的な指示と共に第2のアイテムを表示すると共に、視覚的な指示なしで表示される第4のアイテムを表示することで、(例えば、ユーザーが対話しているアイテムが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第2のユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 A fourth item displayed in the second user interface with visual instructions to indicate that the second item is a virtual three-dimensional object, and without visual instructions. By displaying (for example, by helping the user provide the appropriate input depending on whether the item the user is interacting with is a virtual three-dimensional object), the user can provide a second user interface. Increases the efficiency with which you can perform operations, thereby improving the usability of the device, and reducing the power consumption of the device by allowing users to use the device faster and more efficiently. Improve battery life.

一部の実施形態において(1018)、第1のユーザーインターフェース(例えば、図7Bに示すようなインターネットブラウザユーザーインターフェース5060)は、第1のアプリケーション(例えば、インターネットブラウザアプリケーション)に対応し、第2のユーザーインターフェース(例えば、図7Mに示すようなメッセージングユーザーインターフェース5008)は、第1のアプリケーションとは別個の第2のアプリケーション(例えば、メッセージングアプリケーション)に対応し、視覚的な指示(例えば、仮想オブジェクトインジケータ5080)と共に表示される第1のアイテム(例えば、ランプオブジェクト5084)の表現、及び視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に表示される第2のアイテム(例えば、仮想椅子5022)の表現は、所定の1組の視覚特性及び/又は挙動特性を共有する(例えば、同じインジケータアイコンを使用し、同じテクスチャ若しくはレンダリングのスタイル、及び/又は所定のタイプの入力によって引き起こされるときの挙動を有する)。例えば、仮想オブジェクトインジケータ5080及び仮想オブジェクトインジケータ5022のためのアイコンは、同一のシンボルを含む。 In some embodiments (1018), the first user interface (eg, the internet browser user interface 5060 as shown in FIG. 7B) corresponds to the first application (eg, the internet browser application) and the second. The user interface (eg, messaging user interface 5008, as shown in FIG. 7M) corresponds to a second application (eg, a messaging application) separate from the first application and has visual instructions (eg, a virtual object indicator). Representation of a first item (eg, lamp object 5084) displayed with 5080) and a second item (eg, virtual chair 5022) displayed with visual instructions (eg, virtual object indicator 5022). Shares a given set of visual and / or behavioral traits (eg, using the same indicator icon, having the same texture or rendering style, and / or behavior when triggered by a given type of input. ). For example, the icons for the virtual object indicator 5080 and the virtual object indicator 5022 include the same symbol.

第1のアイテム及び第2のアイテムの視覚的な指示が所定の1組の視覚特性及び/又は挙動特性を共有するように、第1のアプリケーションの第1のユーザーインターフェースに第1のアイテムを視覚的な指示と共に表示すると共に、第2のアプリケーションの第2のユーザーインターフェースに第2のアイテムを視覚的な指示と共に表示することによって、(例えば、ユーザーが対話しているアイテムが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第2のユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 Visualize the first item in the first user interface of the first application so that the visual instructions of the first item and the second item share a predetermined set of visual and / or behavioral characteristics. By displaying the second item with visual instructions in the second user interface of the second application (for example, the item the user is interacting with is a virtual three-dimensional object). Increases the efficiency with which the user can perform actions using the second user interface (by assisting the user to provide the appropriate input, with or without), thereby improving the usability of the device, and further. Reduce device power usage and improve battery life by allowing users to use the device faster and more efficiently.

一部の実施形態では、第1のユーザーインターフェースは、インターネットブラウザアプリケーションのユーザーインターフェース(例えば、図7Bに示すような、インターネットブラウザユーザーインターフェース5060)であり(1020)、第1のアイテムは、ウェブページの要素である(例えば、第1のアイテムは、埋込画像、ハイパーリンク、アプレット、絵文字、埋め込まれたメディアオブジェクト等としてウェブページ内で表される)。例えば、第1のアイテムは、ウェブオブジェクト5068の仮想ランプオブジェクト5084である。 In some embodiments, the first user interface is the user interface of an internet browser application (eg, internet browser user interface 5060, as shown in FIG. 7B) (1020), and the first item is a web page. (For example, the first item is represented in a web page as an embedded image, hyperlink, applet, pictogram, embedded media object, etc.). For example, the first item is the virtual lamp object 5084 of the web object 5068.

ウェブページ要素が仮想三次元オブジェクトであることを示す視覚的な指示と共にウェブページ要素を表示することによって、(例えば、ユーザーが対話しているウェブページ要素が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーがインターネットブラウザアプリケーションを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the web page element with a visual indication that the web page element is a virtual three-dimensional object (for example, depending on whether the web page element the user is interacting with is a virtual three-dimensional object or not. Increases the efficiency with which users can perform actions using Internet browser applications (by assisting users to provide proper input), thereby improving the usability of the device, and also allowing the user to make the device faster and faster. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、第1のユーザーインターフェースは、電子メールアプリケーションユーザーインターフェース(例えば、図7Pに示すような電子メールユーザーインターフェース7052)であり(1022)、第1のアイテムは、電子メールに対する添付物(例えば、添付物7060)である。 In some embodiments, the first user interface is an email application user interface (eg, an email user interface 7052 as shown in FIG. 7P) (1022), the first item being an attachment to an email. An object (eg, attachment 7060).

電子メール添付物が仮想三次元オブジェクトであることを示す視覚的な指示と共に電子メール添付物を表示することによって、(例えば、ユーザーが対話している電子メール添付物が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが電子メールアプリケーションユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying an email attachment with a visual indication that the email attachment is a virtual three-dimensional object (for example, the email attachment with which the user is interacting is a virtual three-dimensional object). Increases the efficiency with which users can perform actions using the email application user interface (by assisting the user to provide the appropriate input depending on whether or not they are present), thereby improving the usability of the device and even allowing the user to Reduce device power usage and improve battery life by allowing the device to be used faster and more efficiently.

一部の実施形態では、第1のユーザーインターフェースは、メッセージングアプリケーションユーザーインターフェース(例えば、図7Mに示すようなメッセージングユーザーインターフェース5008)であり(1024)、第1のアイテムは、メッセージ中の添付物又は要素(例えば、仮想椅子5020)である(例えば、第1のアイテムは、画像、ハイパーリンク、ミニプログラム、絵文字、メディアオブジェクト等である)。 In some embodiments, the first user interface is a messaging application user interface (eg, a messaging user interface 5008 as shown in FIG. 7M) (1024), and the first item is an attachment in a message or An element (eg, a virtual chair 5020) (eg, the first item is an image, a hyperlink, a miniprogram, a pictogram, a media object, etc.).

メッセージの添付物又は要素が仮想三次元オブジェクトであることを示す視覚的な指示と共にメッセージの添付物又は要素を表示することによって、(例えば、ユーザーが対話しているメッセージの添付物又は要素が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーがメッセージングユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the message attachment or element with a visual indication that the message attachment or element is a virtual three-dimensional object (eg, the message attachment or element with which the user is interacting is virtual. Increases the efficiency with which users can perform actions using the messaging user interface (by assisting the user to provide the appropriate input depending on whether it is a three-dimensional object or not), thereby improving the usability of the device. In addition, it reduces the power consumption of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

一部の実施形態では、第1のユーザーインターフェースは、ファイル管理アプリケーションユーザーインターフェース(例えば、図7Oに示すようなファイル管理ユーザーインターフェース7036)であり(1026)、第1のアイテムは、ファイルプレビューオブジェクト(例えば、ファイル情報領域7046中のファイルプレビューオブジェクト7045)である。 In some embodiments, the first user interface is a file management application user interface (eg, file management user interface 7036 as shown in FIG. 7O) (1026), and the first item is a file preview object (eg, file preview object (1026)). For example, the file preview object 7045) in the file information area 7046).

ファイルプレビューオブジェクトが仮想三次元オブジェクトであることを示す視覚的な指示と共にファイルプレビューオブジェクトを表示することによって、(例えば、ユーザーが対話しているファイルプレビューオブジェクトが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーがファイル管理アプリケーションユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the file preview object with a visual indication that the file preview object is a virtual three-dimensional object (for example, depending on whether the file preview object the user is interacting with is a virtual three-dimensional object or not. Increases the efficiency with which users can perform actions using the file management application user interface (by assisting the user to provide proper input), thereby improving the usability of the device and further allowing the user to make the device more accessible. It reduces device power usage and improves battery life by allowing it to be used quickly and efficiently.

一部の実施形態では、第1のユーザーインターフェースは、地図アプリケーションユーザーインターフェース(例えば、地図アプリケーションユーザーインターフェース7024)であり(1028)、第1のアイテムは、地図内の対象地点の表現(例えば、対象地点オブジェクト7028)である(例えば、地図上の位置に対応する特徴の三次元表現(例えば、地図上の位置に対応する地形及び/又は構造物の三次元表現が挙げられる)、又は作動時に地図の三次元表現を表示させる制御)。 In some embodiments, the first user interface is a map application user interface (eg, map application user interface 7024) (1028), and the first item is a representation of a target point in the map (eg, target). A point object 7028) (eg, a three-dimensional representation of a feature corresponding to a location on a map (eg, a three-dimensional representation of a terrain and / or a structure corresponding to a location on a map), or a map when activated. Control to display the three-dimensional representation of).

地図内の対象地点の表現が仮想三次元オブジェクトであることを示す視覚的な指示と共に対象地点の表現を表示することによって、(例えば、ユーザーが対話している対象地点の表現が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが地図アプリケーションユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the representation of the target point with a visual indication that the representation of the target point in the map is a virtual 3D object (for example, the representation of the target point with which the user is interacting is a virtual 3D object). Increases the efficiency with which users can perform actions using the map application user interface (by assisting the user to provide the appropriate input depending on whether or not they are), thereby improving the usability of the device and further. Reduce device power usage and improve battery life by allowing users to use the device faster and more efficiently.

一部の実施形態では、第1のアイテムがそれぞれの仮想三次元オブジェクトに対応するという視覚的な指示は、それぞれの三次元オブジェクトの表現に向けられる入力を必要とせずに発生する第1のアイテムのアニメーション(例えば、経時的に第1のアイテムに適用される連続的な移動又は視覚的効果の変化(例えば、スパークリング、きらめき等))を含む(1030)。 In some embodiments, the visual indication that the first item corresponds to each virtual 3D object is the first item that occurs without the need for input directed to the representation of each 3D object. Animation (eg, continuous movement or change in visual effect applied to the first item over time (eg, sparkling, glitter, etc.)) (1030).

それぞれの三次元オブジェクトの表現に向けられる入力なしで発生する第1のアイテムのアニメーションを表示することにより、(例えば、ユーザーが第1のアイテムの三次元態様を見るために必要な入力数を減少させることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying an animation of the first item that occurs without input directed to the representation of each 3D object (eg, reducing the number of inputs the user needs to see the 3D aspect of the 1st item). It improves the usability of the device (by allowing it) and also reduces the power consumption of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

一部の実施形態では、デバイスは、第2のアイテムがそれぞれの仮想三次元オブジェクトに対応することを示すための視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に第2のアイテム(例えば、仮想椅子5020)の表現を表示しつつ、第2のアイテムの表現に対応するタッチ感知面上の場所での第2の接触による第2の入力(例えば、図5C~5Fに関して説明したような入力)を検出し(1032)、第2の接触による第2の入力の検出に応答して、及び第2の接触による第2の入力が第1の(例えば、ARトリガ)基準を満たすとの判定に応じて、デバイスは、第2のユーザーインターフェース(例えば、メッセージングユーザーインターフェース5008)のうちの少なくとも一部の表示を(例えば、図5F~5Iに関して説明した)1つ以上のカメラの視野5036の表現で置き換えることを含めて、ディスプレイ上に第3のユーザーインターフェース領域を表示し、第2のユーザーインターフェースの表示から第3のユーザーインターフェース領域の表示に切り替えつつ第2の仮想三次元オブジェクトを連続的に表示する。(例えば、方法800を参照して本明細書により詳細に説明されるように)。一部の実施形態では、デバイスは、(例えば、動作834を参照して本明細書により詳細に説明するように)第2のユーザーインターフェースの一部を1つ以上のカメラの視野の表現と共に表示することから切り替えつつ、仮想オブジェクトの表現が連続的に表示されるようにアニメーションを表示する。 In some embodiments, the device has a second item (eg, virtual) with visual instructions (eg, virtual object indicator 5022) to indicate that the second item corresponds to each virtual three-dimensional object. The second input by the second contact at a location on the touch sensing surface corresponding to the representation of the second item while displaying the representation of the chair 5020) (eg, the input as described for FIGS. 5C-5F). (1032), in response to the detection of the second input by the second contact, and to determine that the second input by the second contact meets the first (eg, AR trigger) criterion. Correspondingly, the device displays at least a portion of the second user interface (eg, messaging user interface 5008) in representation of the field of view 5036 of one or more cameras (eg, described with respect to FIGS. 5F-5I). Display the third user interface area on the display, including replacing, and continuously display the second virtual three-dimensional object while switching from the display of the second user interface to the display of the third user interface area. do. (For example, as described in more detail herein with reference to Method 800). In some embodiments, the device displays a portion of the second user interface (eg, as described in more detail herein with reference to operation 834), along with a representation of the field of view of one or more cameras. Display the animation so that the representation of the virtual object is displayed continuously while switching from doing.

第3のユーザーインターフェース領域を表示するか否かを判定する第1の基準を用いることで、第2の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By using a first criterion for determining whether to display a third user interface area, it is possible to perform a plurality of different types of actions in response to a second input. By allowing users to perform different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and allowing the user to perform the device faster. And by enabling efficient use, it reduces the power consumption of the device and improves battery life.

一部の実施形態では、(例えば、方法900を参照して本明細書により詳細に記載するように)第2のアイテムがそれぞれの仮想三次元オブジェクトに対応することを示すために第2のアイテム(例えば、仮想椅子5020)を視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に表示しつつ、デバイスは、第2のアイテムの表現に対応するタッチ感知面上の場所で第3の接触による第3の入力(例えば、図6E~6Iに関して説明したような入力)を検出し(1034)、第3の接触による第3の入力の検出に応答し、第3の接触による第3の入力が第1の(例えば、ステージングトリガ)基準を満たすとの判定に応じて、デバイスは、第2のユーザーインターフェースとは異なる第4のユーザーインターフェース(例えば、方法900を参照してより詳細に説明したようなステージングユーザーインターフェース6010)に第2の仮想三次元オブジェクトを表示する。一部の実施形態では、第2の仮想三次元オブジェクトを第4のユーザーインターフェース(例えば、図6Iに示すように、ステージングユーザーインターフェース6010)に表示しつつ、デバイスは、第4の入力を検出し、この第4の入力の検出に応答して、第4の入力が第4のユーザーインターフェースにおける第2の仮想三次元オブジェクトを操作する要求に対応しているとの判定に応じて、デバイスは、(例えば、図6J~6Mに関して説明したような及び/又は図6N~6Pに関して説明したような)第4の入力に基づいて、第4のユーザーインターフェースにおける第2の仮想三次元オブジェクトの表示特性を変化させ、第4の入力が拡張現実環境内に第2の仮想オブジェクトを表示させる要求(例えば、第2のユーザーインターフェース領域内の仮想オブジェクトの表現に対応するタッチ感知面上の場所における又はその場所からのタップ入力、押圧入力、又はタッチ保持若しくは押圧入力とそれに続くドラッグ入力)に対応するとの判定に応じて、このデバイスは、(例えば、図6Q~6Uに関して説明したように)1つ以上のカメラの視野の表現と共に第2の仮想三次元オブジェクトを表示する。 In some embodiments, a second item (eg, as described in more detail herein with reference to Method 900) to indicate that the second item corresponds to each virtual three-dimensional object. While displaying (eg, the virtual chair 5020) with visual instructions (eg, the virtual object indicator 5022), the device is a third touch at a location on the touch sensitive surface corresponding to the representation of the second item. Detects 3 inputs (eg, inputs as described for FIGS. 6E-6I) (1034), responds to detection of a third input by the third contact, and the third input by the third contact is the third. Depending on the determination that one (eg, staging trigger) criterion is met, the device is described in more detail with reference to a fourth user interface (eg, Method 900) that is different from the second user interface. Display a second virtual three-dimensional object in the staging user interface 6010). In some embodiments, the device detects a fourth input while displaying a second virtual three-dimensional object in a fourth user interface (eg, staging user interface 6010, as shown in FIG. 6I). In response to the detection of this fourth input, the device determines that the fourth input corresponds to a request to manipulate a second virtual three-dimensional object in the fourth user interface. Based on the fourth input (as described, for example, with respect to FIGS. 6J-6M and / or with reference to FIGS. 6N-6P), the display characteristics of the second virtual three-dimensional object in the fourth user interface. A request to change and have the fourth input display a second virtual object in the augmented real world (eg, at or at a location on the touch sensitive surface that corresponds to the representation of the virtual object in the second user interface area. Depending on the determination to support tap input, press input, or touch hold or press input followed by drag input, the device may have one or more objects (eg, as described for FIGS. 6Q-6U). A second virtual three-dimensional object is displayed along with a representation of the camera's field of view.

第2の三次元オブジェクトを第4のユーザーインターフェース(例えば、ステージングユーザーインターフェース6010)に表示しつつ、第4の入力に応答して、デバイスは、第4の入力に基づいて第2の三次元オブジェクトの表示特性を変化させる、又はデバイスの1つ以上のカメラの視野の表現と共に第2の三次元オブジェクトを表示する。(例えば、第2の三次元オブジェクトの表示特性を変化させることによって、又はデバイスの1つ以上のカメラの視野の表現と共に第2の三次元オブジェクトを表示することによって)入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In response to the fourth input while displaying the second 3D object in the 4th user interface (eg, staging user interface 6010), the device responds to the 4th input and the device is based on the 4th input. The display characteristics of the device are changed, or a second 3D object is displayed with a representation of the field of view of one or more cameras on the device. Multiple in response to input (eg, by changing the display characteristics of the second 3D object, or by displaying the second 3D object with a representation of the field of view of one or more cameras on the device). By allowing different types of actions to be performed, the efficiency with which the user can perform these actions is increased, thereby improving the usability of the device, and the user can use the device more quickly and efficiently. Reduces device power usage and improves battery life by enabling.

図10A~10Dにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)に関して本明細書に記載される他のプロセスの詳細は、図10A~10Dに関して上記した方法1000にも、同様に適用可能であることに留意されたい。例えば、方法1000を参照して上記した接触、入力、仮想オブジェクト、ユーザーインターフェース、ユーザーインターフェース領域、視野、移動、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)を参照して本明細書に記載した接触、入力、仮想オブジェクト、ユーザーインターフェース、ユーザーインターフェース領域、視野、移動、及び/又はアニメーションの特徴のうちの1つ以上を有する。簡潔にするために、これらの詳細はここでは繰り返さない。 Understand that the particular order described for the operations in FIGS. 10A-10D is merely an example and the described order is not intended to indicate that the operation is the only order in which it can be performed. I want to be. Those of skill in the art will recognize various methods for reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 800, 900, 16000, 17000, 18000, 19000, and 20000) are from FIG. 10A. Note that the method 1000 described above for 10D is similarly applicable. For example, the contacts, inputs, virtual objects, user interfaces, user interface areas, fields of view, movements, and / or animations described above with reference to Method 1000 are optionally described in other methods herein ( For example, contact, input, virtual object, user interface, user interface area, field of view, movement, and / or animation described herein with reference to methods 800, 900, 16000, 17000, 18000, 19000, and 20000). Has one or more of the features of. For the sake of brevity, these details are not repeated here.

図11A~11Vは、オブジェクト配置基準が満たされるか否かに応じて異なる視覚特性を有する仮想オブジェクトを表示するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 11A-11V show examples of user interfaces that display virtual objects with different visual characteristics depending on whether the object placement criteria are met. The user interfaces in these figures are the processes in FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and 20A-20F. It is used to illustrate the process described below, including. For convenience of description, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the representative point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact). Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional and separate from the display 450 in response to detecting contact on the touch sensitive surface 451 while displaying the user interface shown in the figure on the display 450 with the focus selector. It is performed on a device having a touch sensing surface 451.

図11A~11Eは、ステージングビューに仮想オブジェクトを表示する入力を示す。例えば、三次元オブジェクトの二次元二次元(例えば、サムネイル)表現がユーザーインターフェース(例えば、電子メールユーザーインターフェース7052、ファイル管理ユーザーインターフェース7036、地図ユーザーインターフェース7022、メッセージングユーザーインターフェース5008、インターネットブラウザユーザーインターフェース5060、又はサードパーティアプリケーションユーザーインターフェース)に表示されている間に、入力が検出される。 11A-11E show inputs to display virtual objects in the staging view. For example, a two-dimensional two-dimensional (eg, thumbnail) representation of a three-dimensional object is a user interface (eg, email user interface 7052, file management user interface 7036, map user interface 7022, messaging user interface 5008, internet browser user interface 5060, etc. Or the input is detected while it is displayed in the third party application user interface).

図11Aにおいて、インターネットブラウザユーザーインターフェース5060は、三次元仮想オブジェクト11002(椅子)の二次元表現を含む。接触11004による入力(例えば、タップ入力)は、仮想オブジェクト11002に対応する位置で検出される。タップ入力に応答して、インターネットブラウザユーザーインターフェース5060の表示は、ステージングユーザーインターフェース6010の表示によって置き換えられる。 In FIG. 11A, the internet browser user interface 5060 includes a two-dimensional representation of the three-dimensional virtual object 11002 (chair). The input by contact 11004 (eg, tap input) is detected at the position corresponding to the virtual object 11002. In response to tap input, the display of the Internet browser user interface 5060 is replaced by the display of the staging user interface 6010.

図11B~11Eは、インターネットブラウザユーザーインターフェース5060がステージングユーザーインターフェース6010の表示によって置き換えられるときに生じる遷移を示す。一部の実施形態では、仮想オブジェクト10002は、遷移中に、徐々にビューにフェードインし、及び/又はステージングユーザーインターフェース6010の制御(例えば、バック制御6016、トグル制御6018、及び/又は共有制御6020)は、徐々にビューにフェードインする。例えば、(例えば、仮想オブジェクト11002の三次元表現がディスプレイ上にレンダリングされるのに必要な期間中、制御の表示を遅延させるために)仮想オブジェクト11002がビューにフェードインした後に、ステージングユーザーインターフェース6010の制御がビューにフェードインする。一部の実施形態では、仮想オブジェクト11002の「フェードイン」は、仮想オブジェクト11002の低解像度、二次元、及び/又はホログラフィックバージョンを表示することとそれに続く仮想オブジェクト11002の最終的な三次元表現を表示することを含む。図11B~11Dは、仮想オブジェクト11002の徐々のフェードインを示す。図11Dには、仮想オブジェクト11002の影11006が表示されている。図11D~11Eは、制御6016、6018、及び6020の徐々のフェードインを示す。 11B-11E show the transitions that occur when the Internet browser user interface 5060 is replaced by the display of the staging user interface 6010. In some embodiments, the virtual object 10002 gradually fades into the view during the transition and / or controls the staging user interface 6010 (eg, back control 6016, toggle control 6018, and / or shared control 6020). ) Gradually fades into the view. For example, after the virtual object 11002 fades into the view (eg, to delay the display of controls for the period required for the three-dimensional representation of the virtual object 11002 to be rendered on the display), the staging user interface 6010. Control fades into the view. In some embodiments, the "fade-in" of virtual object 11002 displays a low resolution, two-dimensional, and / or holographic version of virtual object 11002 followed by a final three-dimensional representation of virtual object 11002. Includes displaying. 11B-11D show the gradual fade-in of virtual object 11002. In FIG. 11D, the shadow 11006 of the virtual object 11002 is displayed. 11D-11E show the gradual fade-in of controls 6016, 6018, and 6020.

図11F~11Gは、仮想オブジェクト11002の三次元表現をデバイス100の1つ以上のカメラの視野6036を含むユーザーインターフェースに表示させる入力を示す。図11Fにおいて、接触11008による入力は、トグル制御6018に対応する位置で検出される。この入力に応答して、図11Gに示すように、ステージングユーザーインターフェース6010の表示が、カメラの視野6036を含むユーザーインターフェースの表示に置き換えられる。 11F-11G show inputs that display a three-dimensional representation of virtual object 11002 in a user interface that includes a field of view 6036 for one or more cameras on device 100. In FIG. 11F, the input by contact 11008 is detected at the position corresponding to the toggle control 6018. In response to this input, the display of the staging user interface 6010 is replaced with the display of the user interface including the field of view 6036 of the camera, as shown in FIG. 11G.

図11G~11Hに示すように、カメラの視野6036が最初に表示されるときに(例えば、仮想オブジェクトに対応するプレーンが、カメラの視野6036内で検出されていないときに)、仮想オブジェクトの半透明表現が表示されてもよい。 As shown in FIGS. 11G-11H, when the camera field of view 6036 is first displayed (eg, when the plane corresponding to the virtual object is not detected within the camera field of view 6036), half of the virtual object. A transparent representation may be displayed.

図11G~11Hは、カメラの視野6036を含むユーザーインターフェースに表示される仮想オブジェクト11002の半透明表現を示す。仮想オブジェクト11002の半透明表現は、ディスプレイ112に対して一定の位置に表示される。例えば、図11Gから図11Hまで、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)デバイス100が物理的環境5002に対して移動させられるとき、仮想オブジェクト11002は、ディスプレイ112に対して一定の位置のままである。 11G-11H show translucent representations of the virtual object 11002 displayed in the user interface including the camera field of view 6036. The translucent representation of the virtual object 11002 is displayed at a fixed position with respect to the display 112. For example, from FIG. 11G to FIG. 11H, when the device 100 is moved relative to the physical environment 5002 (eg, as indicated by the altered position of the table 5004 in the field of view 6036 of the camera), the virtual object 11002 will be. It remains in a fixed position with respect to the display 112.

一部の実施形態では、仮想オブジェクトに対応するプレーンがカメラの視野6036内で検出されたとの判定に応じて、検出されたプレーン上に仮想オブジェクトが配置される。 In some embodiments, the virtual object is placed on the detected plane in response to the determination that the plane corresponding to the virtual object has been detected within the camera's field of view 6036.

図11Iにおいて、仮想オブジェクト11002に対応するプレーンが、カメラの視野6036内で検出されており、検出されたプレーン上に仮想オブジェクト11002が配置される。(例えば、少なくとも1つのプレーン(例えば、床面5038)がカメラの視野6036内で検出されたことを示すために)デバイスは、11010で示すように、触知出力を生成している。仮想オブジェクト11002がカメラの視野6036内で検出されるプレーンに対してある位置に配置されるとき、仮想オブジェクト11002は、1つ以上のカメラによって取り込まれた物理的環境5002に対して一定の位置のままである。図11Iから図11Jまで、(例えば、カメラの視野6036内に表示されたテーブル5004の変化した位置によって示されるように)デバイス100が、物理的環境5002に対して移動させられるとき、仮想オブジェクト11002は、物理的環境5002に対して一定の位置のままである。 In FIG. 11I, the plane corresponding to the virtual object 11002 is detected in the field of view 6036 of the camera, and the virtual object 11002 is arranged on the detected plane. The device (eg, to indicate that at least one plane (eg, floor surface 5038) has been detected within the field of view 6036 of the camera) is producing a tactile output, as shown by 11010. When the virtual object 11002 is placed in a position with respect to the plane detected within the field of view 6036 of the camera, the virtual object 1102 is in a fixed position with respect to the physical environment 5002 captured by one or more cameras. There is up to. From FIG. 11I to FIG. 11J, when the device 100 is moved relative to the physical environment 5002 (eg, as indicated by the altered position of the table 5004 displayed within the field of view 6036 of the camera), the virtual object 11002. Remains in a fixed position with respect to the physical environment 5002.

一部の実施形態では、カメラの視野6036が表示される間、(例えば、入力が受信されない期間が経過との判定に応じて)制御(例えば、バック制御6016、トグル制御6018、及び/又は共有制御6020)は、表示されるのを中止する。図11J~11Lにおいて、制御6016、6018、及び6020は、(例えば、図11Kに示すように)徐々にフェードアウトし、(例えば、図11Lに示すように)カメラの視野6036が表示されるディスプレイ112の部分を増大させる。 In some embodiments, control (eg, back control 6016, toggle control 6018, and / or sharing) is performed while the camera field of view 6036 is displayed (eg, depending on the determination that the period during which no input is received has elapsed). Control 6020) stops being displayed. In FIGS. 11J-11L, controls 6016, 6018, and 6020 gradually fade out (eg, as shown in FIG. 11K) to display the camera field of view 6036 (eg, as shown in FIG. 11L) display 112. Increase the part of.

図11M~11Sは、仮想オブジェクトがカメラの視野6036を含むユーザーインターフェース内で表示されるときに、仮想オブジェクト11002を操作する入力を示す。 11M-11S show inputs for manipulating the virtual object 11002 when the virtual object is displayed within the user interface including the camera field of view 6036.

図11M~11Nにおいて、仮想オブジェクト11002のシミュレートされた物理的サイズを変更する接触11012及び11014による入力(例えば、デピンチジェスチャ)が検出される。入力の検出に応答して、制御6016、6018、及び6020が再表示される。接触11012は矢印11016で示す経路に沿って移動し、接触11014は矢印11018で示す経路に沿って移動し、仮想オブジェクト11002のサイズは増大する。 In FIGS. 11M-11N, inputs (eg, depinch gestures) by contacts 11012 and 11014 that change the simulated physical size of virtual object 11002 are detected. Controls 6016, 6018, and 6020 are redisplayed in response to input detection. The contact 11012 moves along the path indicated by the arrow 11016, the contact 11014 moves along the path indicated by the arrow 11018, and the size of the virtual object 11002 increases.

図11N~11Pにおいて、仮想オブジェクト11002のシミュレートされた物理的サイズを変更する接触11012~1104による入力(例えば、ピンチジェスチャ)が検出される。(図11N~11O及び11O~11Pに示すように)接触11012は矢印11020で示す経路に沿って移動し、接触11014は矢印11022示す経路に沿って移動し、仮想オブジェクト11002のサイズが減少する。図11Oに示すように、仮想オブジェクト11002のサイズが、物理的環境5002に対してその元のサイズ(例えば、図11Iに示すように、物理的環境5002内の検出されたプレーン上に最初に配置されたときの仮想オブジェクト11002のサイズ)に調整されるとき、(例えば、仮想オブジェクト11002がその元のサイズに戻ったことを示すフィードバックを提供するために)(11024で示すような)触知出力が発生する。図11Qにおいて、接触11012及び11014は、タッチスクリーンディスプレイ112からリフトオフされている。 In FIGS. 11N-11P, inputs (eg, pinch gestures) by contacts 11012 to 1104 that change the simulated physical size of virtual object 11002 are detected. Contact 11012 moves along the path indicated by arrow 11020 (as shown in FIGS. 11N-11O and 11O-11P), contact 11014 moves along the path indicated by arrow 11022, and the size of virtual object 11002 is reduced. As shown in FIG. 11O, the size of the virtual object 11002 is first placed on the detected plane within the physical environment 5002 as its original size relative to the physical environment 5002 (eg, as shown in FIG. 11I). Tactile output (as shown in 11024) when adjusted to (for example, to provide feedback that the virtual object 11002 has returned to its original size) when adjusted to (the size of the virtual object 11002 when it was done). Occurs. In FIG. 11Q, contacts 11012 and 11014 are lifted off from the touch screen display 112.

図11Rにおいて、仮想オブジェクト11002を物理的環境5002に対して元のサイズに戻すための入力(例えば、二重タップ入力)が検出される。入力は、接触11026によって示すように、仮想オブジェクト11002に対応する位置で検出される。この入力に応答して、仮想オブジェクト11002は、図11Rに示す縮小サイズから、図11Sに示すような仮想オブジェクト11002の元のサイズに調整される。図11Sに示すように、仮想オブジェクト11002のサイズが、物理的環境5002に対してその元のサイズに調整されるとき、(例えば、仮想オブジェクト11002がその元のサイズに戻ったことを示すフィードバックを提供するために)(11028で示すような)触知出力が発生する。 In FIG. 11R, an input (eg, double tap input) for returning the virtual object 11002 to its original size with respect to the physical environment 5002 is detected. The input is detected at the position corresponding to the virtual object 11002, as indicated by contact 11026. In response to this input, the virtual object 11002 is adjusted from the reduced size shown in FIG. 11R to the original size of the virtual object 11002 as shown in FIG. 11S. As shown in FIG. 11S, when the size of the virtual object 11002 is adjusted to its original size with respect to the physical environment 5002 (eg, feedback indicating that the virtual object 1102 has returned to its original size). To provide) a tactile output (as shown by 11028) is generated.

図11Tにおいて、接触11030による入力は、トグル制御6018に対応する位置で検出される。この入力に応答して、図11Uに示すように、カメラの視野6036を含むユーザーインターフェースの表示は、ステージングユーザーインターフェース6010によって置き換えられる。 In FIG. 11T, the input by contact 11030 is detected at the position corresponding to the toggle control 6018. In response to this input, the display of the user interface, including the camera field of view 6036, is replaced by the staging user interface 6010, as shown in FIG. 11U.

図11Uにおいて、接触11032による入力が、バック制御6016に対応する位置で検出される。この入力に応答して、図11Vに示すように、ステージングユーザーインターフェース6010の表示は、インターネットブラウザユーザーインターフェース5060によって置き換えられる。 In FIG. 11U, the input by the contact 11032 is detected at the position corresponding to the back control 6016. In response to this input, the display of the staging user interface 6010 is replaced by the internet browser user interface 5060, as shown in FIG. 11V.

図12A~12Lは、デバイスの1つ以上のカメラの移動に応じて動的にアニメーション化される較正ユーザーインターフェースオブジェクトを表示するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 12A-12L show an example of a user interface displaying a calibrated user interface object that is dynamically animated in response to the movement of one or more cameras in the device. The user interfaces in these figures are the processes in FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and 20A-20F. It is used to illustrate the process described below, including. For convenience of illustration, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the representative point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact). Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional and separate from the display 450 in response to detecting contact on the touch sensitive surface 451 while displaying the user interface shown in the figure on the display 450 with the focus selector. It is performed on a device having a touch sensing surface 451.

一部の実施形態によれば、1つ以上のカメラの視野を含むユーザーインターフェースに仮想オブジェクトを表示するように要求を受信しているが、デバイスの較正のために追加データが必要とされる場合、較正ユーザーインターフェースオブジェクトが表示される。 According to some embodiments, a request is received to display a virtual object in a user interface that includes the field of view of one or more cameras, but additional data is needed to calibrate the device. , The calibration user interface object is displayed.

図12Aは、1つ以上のカメラの視野6036を含むユーザーインターフェースに仮想オブジェクト11002を表示することを要求する入力を示す。接触12002による入力は、トグル制御6018に対応する位置で検出される。図12Bに示すように、この入力に応答して、ステージングユーザーインターフェース6010の表示は、カメラの視野6036を含むユーザーインターフェースの表示によって置き換えられる。仮想オブジェクト11002の半透明表現は、カメラの視野6036を含むユーザーインターフェースに表示される。(例えば、仮想オブジェクト11002に対応するプレーンがカメラの視野6036内で検出されていないので)較正が必要とされるが、(例えば、以下に説明するように、プロンプト及び/又は較正オブジェクトの挙動を強調するために)カメラの視野6036はぼかされる。 FIG. 12A shows an input requesting that the virtual object 11002 be displayed in a user interface that includes a field of view 6036 for one or more cameras. The input by contact 12002 is detected at the position corresponding to the toggle control 6018. As shown in FIG. 12B, in response to this input, the display of the staging user interface 6010 is replaced by the display of the user interface including the field of view 6036 of the camera. The translucent representation of virtual object 11002 is displayed in a user interface that includes the camera's field of view 6036. Calibration is required (eg, because the plane corresponding to virtual object 11002 has not been detected in the camera's field of view 6036), but the behavior of the prompt and / or calibration object (eg, as described below). The field of view 6036 of the camera is blurred (to emphasize).

図12B~12Dは、(例えば、較正が必要とされるとの判定に応じて表示される)ユーザーにデバイスの移動を促す動画像及びテキストを示す。動画像は、デバイス100の表現12004と、デバイス100の左右の移動が必要とされることを示す矢印12006及び12008と、(例えば、仮想オブジェクト11002に対応するプレーンを検出するためにプレーンに対してデバイス100が移動しなければならないことを示すための)プレーンの表現12010とを含む。テキストプロンプト12012は、較正が必要なデバイス100の移動に関する情報を提供する。図12B~12C、12C~12Dにおいて、デバイス100の表現12004及び矢印12006は、較正が必要なデバイス100の移動の指示を与えるために、プレーンの表現12010に対して調整される。図12Cから図12Dまで、デバイス100は、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)物理的環境5002に対して移動させられる。デバイス100の移動を検出した結果として、図12E-1に示すように、較正ユーザーインターフェースオブジェクト12014(立方体の輪郭)が表示される。 12B-12D show moving images and text that prompt the user (eg, displayed in response to a determination that calibration is required) to move the device. The moving image includes the representation 12004 of the device 100, the arrows 1200 and 20008 indicating that the device 100 needs to be moved left and right, and (eg, with respect to the plane to detect the plane corresponding to the virtual object 11002). Includes a plane representation 12010 (to indicate that the device 100 must move). The text prompt 12012 provides information about the movement of the device 100 that needs to be calibrated. In FIGS. 12B-12C, 12C-12D, the representation 12004 of the device 100 and the arrow 12006 are adjusted with respect to the representation 12010 of the plane to give instructions for the movement of the device 100 in need of calibration. From FIG. 12C to FIG. 12D, the device 100 is moved relative to the physical environment 5002 (eg, as indicated by the altered position of the table 5004 within the field of view 6036 of the camera). As a result of detecting the movement of the device 100, the calibration user interface object 12014 (the contour of the cube) is displayed, as shown in FIG. 12E-1.

図12E-1から12I-1は、それぞれ図12E-2から12I-2に示すように、物理的環境5002に対するデバイス100の移動に対応する較正ユーザーインターフェースオブジェクト12014の挙動を示す。較正ユーザーインターフェースオブジェクト12014は、(例えば、較正に役立つ移動に関してユーザーにフィードバックを提供するために)デバイス100の移動(例えば、横移動)に応じてアニメーション化される(例えば、立方体の輪郭が回転する)。図12E-1において、較正ユーザーインターフェースオブジェクト12014は、デバイス100のカメラの視野6036を含むユーザーインターフェース内の第1の回転角度で示される。図12E-2には、物理的環境5002に対して第1の位置でユーザーの手5006で保持されたデバイス100が示されている。図12E-2から図12F-2まで、デバイス100は物理的環境5002に対して(右へ)横に移動している。移動の結果として、図12F-1に示すように、デバイス100によって表示されるようなカメラの視野6036は更新され、較正ユーザーインターフェースオブジェクト12014は(図12E-1におけるその位置に対して)回転している。図12F-2から図12G-2まで、デバイス100は、物理的環境5002に対してその右方に移動を継続している。移動の結果として、図12G-1に示すように、デバイス100によって表示されるようなカメラの視野6036は再び更新され、較正ユーザーインターフェースオブジェクト12014は更に回転させられる。図12G-2から図12H-2まで、デバイス100は、物理的環境5002に対して上方に移動している。移動の結果として、デバイス100によって表示されるようなカメラの視野6036は更新される。図12G-1から図12H-1に示すように、較正ユーザーインターフェースオブジェクト12014は、(例えば、デバイスの垂直移動が較正に寄与しないという指示をユーザーに与えるために)図12G-2から図12H-2に示すデバイスの上方移動に応じて回転しない。図12H-2から図12I-2まで、デバイス100は、物理的環境5002に対して更に右方に移動している。移動の結果として、図12I-1に示すように、デバイス100によって表示されるようなカメラの視野6036は再び更新され、較正ユーザーインターフェースオブジェクト12014は回転させられる。 12E-1 to 12I-1 show the behavior of the calibrated user interface object 12014 corresponding to the movement of the device 100 with respect to the physical environment 5002, respectively, as shown in FIGS. 12E-2 to 12I-2. The calibration user interface object 12014 is animated (eg, the contour of the cube is rotated) in response to the movement (eg, lateral movement) of the device 100 (eg, to provide feedback to the user regarding movements that are useful for calibration). ). In FIG. 12E-1, the calibrated user interface object 12014 is represented by a first rotation angle within the user interface that includes the field of view 6036 of the camera of device 100. FIG. 12E-2 shows the device 100 held by the user's hand 5006 in the first position relative to the physical environment 5002. From FIG. 12E-2 to FIG. 12F-2, the device 100 is moving laterally (to the right) with respect to the physical environment 5002. As a result of the movement, the camera's field of view 6036 as displayed by device 100 is updated and the calibration user interface object 12014 is rotated (relative to its position in FIG. 12E-1) as shown in FIG. 12F-1. ing. From FIG. 12F-2 to FIG. 12G-2, the device 100 continues to move to the right of the physical environment 5002. As a result of the movement, as shown in FIG. 12G-1, the camera field of view 6036 as displayed by the device 100 is updated again and the calibration user interface object 12014 is further rotated. From FIG. 12G-2 to FIG. 12H-2, the device 100 is moving upward with respect to the physical environment 5002. As a result of the movement, the field of view 6036 of the camera as displayed by the device 100 is updated. As shown in FIGS. 12G-1 to 12H-1, the calibration user interface object 12014 (eg, to instruct the user that the translation of the device does not contribute to the calibration) is shown in FIGS. 12G-2 to 12H-. It does not rotate in response to the upward movement of the device shown in 2. From FIG. 12H-2 to FIG. 12I-2, the device 100 is moving further to the right with respect to the physical environment 5002. As a result of the movement, as shown in FIG. 12I-1, the camera field of view 6036 as displayed by the device 100 is updated again and the calibration user interface object 12014 is rotated.

図12Jにおいて、(例えば、図12E~12Iに示すような)デバイス100の移動は、必要な較正を満足している(例えば、仮想オブジェクト11002に対応するプレーンは、カメラの視野6036内で検出されている)。仮想オブジェクト11002は検出されたプレーン上に配置され、カメラの視野6036はぼかされるのを中止する。触知出力生成器は、プレーン(例えば、床面5038)がカメラの視野6036内で検出されたことを示す(12016で示すような)触知出力を出力する。床面5038は、検出されたプレーンの指示を与えるように強調される。 In FIG. 12J, the movement of the device 100 (eg, as shown in FIGS. 12E-12I) satisfies the required calibration (eg, the plane corresponding to the virtual object 11002 is detected within the field of view 6036 of the camera). ing). The virtual object 11002 is placed on the detected plane and the camera's field of view 6036 ceases to be blurred. The tactile output generator outputs a tactile output (as shown by 12016) indicating that a plane (eg, floor surface 5038) has been detected within the camera's field of view 6036. Floor 5038 is highlighted to give instructions for the detected plane.

仮想オブジェクト11002がカメラの視野6036内で検出されるプレーンに対してある位置に配置されているとき、仮想オブジェクト11002は、1つ以上のカメラによって取り込まれた物理的環境5002に対して一定の位置のままである。(図12K-2~図12L-2に示すように)デバイス100は、物理的環境5002に対して移動させられるとき、(図12K-1~図12L-1に示すように)仮想オブジェクト11002は、物理的環境5002に対して一定の位置のままである。 When the virtual object 11002 is placed in a position with respect to the plane detected within the field of view 6036 of the camera, the virtual object 1102 is in a fixed position with respect to the physical environment 5002 captured by one or more cameras. It remains. When the device 100 is moved relative to the physical environment 5002 (as shown in FIGS. 12K-2 to 12L-2), the virtual object 1102 (as shown in FIGS. 12K-1 to 12L-1) , Remains in a fixed position with respect to the physical environment 5002.

図13A~13Mは、軸を中心にした仮想オブジェクトの回転を制約するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 13A-13M show examples of user interfaces that constrain the rotation of virtual objects around an axis. The user interfaces in these figures are the processes in FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and 20A-20F. It is used to illustrate the process described below, including. For convenience of illustration, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the representative point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact). Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional and separate from the display 450 in response to detecting contact on the touch sensitive surface 451 while displaying the user interface shown in the figure on the display 450 with the focus selector. It is performed on a device having a touch sensing surface 451.

図13Aにおいて、仮想オブジェクト11002は、ステージングユーザーインターフェース6010に示されている。x軸、y軸、及びz軸は、仮想オブジェクト11002に対して示されている。 In FIG. 13A, the virtual object 11002 is shown in the staging user interface 6010. The x-axis, y-axis, and z-axis are shown for virtual object 11002.

図13B~13Cは、図13Aに示されるy軸周りに仮想オブジェクト11002を回転させるための入力を示す。図13Bにおいて、接触13002による入力は、仮想オブジェクト11002に対応する位置で検出される。入力は、矢印13004で示す経路に沿って距離dだけ移動する。入力が経路に沿って移動するとき、仮想オブジェクト11002は、図13Bに示される位置までy軸周りに(例えば、35度だけ)回転する。ステージングユーザーインターフェース6010において、仮想オブジェクト11002に対応する影13006が表示される。図13Bから図13Cへ、影13006は、仮想オブジェクト11002の位置変化に応じて変化する。 13B-13C show inputs for rotating the virtual object 11002 around the y-axis shown in FIG. 13A. In FIG. 13B, the input by contact 13002 is detected at the position corresponding to the virtual object 11002. The input travels a distance d 1 along the path indicated by arrow 13004. As the input travels along the path, the virtual object 1102 rotates about the y-axis (eg, only 35 degrees) to the position shown in FIG. 13B. In the staging user interface 6010, the shadow 13006 corresponding to the virtual object 11002 is displayed. From FIG. 13B to FIG. 13C, the shadow 13006 changes according to the position change of the virtual object 11002.

接触13002がタッチスクリーン112からリフトオフされた後、仮想オブジェクト11002は、(例えば、仮想オブジェクト11002が物理的オブジェクトのように振る舞う印象を与えるために、接触13002の移動により付与される「運動量」に応じて)図13C~13Dに示すように、回転し続ける。 After the contact 13002 is lifted off the touch screen 112, the virtual object 11002 responds to the "momentum" imparted by the movement of the contact 13002 (eg, to give the impression that the virtual object 11002 behaves like a physical object. As shown in FIGS. 13C to 13D, the object continues to rotate.

図13E~13Fは、図13Aに示すx軸周りに仮想オブジェクト11002を回転させる入力を示す。図13Eにおいて、接触13008による入力は、仮想オブジェクト11002に対応する位置で検出される。入力は、矢印13010で示す経路に沿って距離dだけ移動する。入力が経路に沿って移動するとき、仮想オブジェクト11002は、図13Fに示される位置までx軸周りに(例えば、5度だけ)回転する。接触13008は、接触13002が13B~13Cから移動したのと同じ距離dだけ図13E~13Fのx軸に沿って移動するが、図13E~13Fにおけるx軸周りの仮想オブジェクト11002の回転角は、図13B~13Cにおけるy軸周りの仮想オブジェクト11002 の回転角よりも小さい。 13E-13F show inputs to rotate the virtual object 1102 around the x-axis shown in FIG. 13A. In FIG. 13E, the input by contact 13008 is detected at the position corresponding to the virtual object 11002. The input travels a distance d 1 along the path indicated by arrow 13010. As the input moves along the path, the virtual object 1102 rotates about the x-axis (eg, only 5 degrees) to the position shown in FIG. 13F. The contact 13008 moves along the x-axis of FIGS. 13E - 13F by the same distance d1 as the contact 13002 moved from 13B-13C, but the angle of rotation of the virtual object 11002 around the x-axis in FIGS. 13E-13F is , Is smaller than the rotation angle of the virtual object 11002 around the y-axis in FIGS. 13B to 13C.

図13F~13Gは、図13Aに示すx軸周りに仮想オブジェクト11002を回転させる更なる入力を示す。図13Fにおいて、接触13008はその移動を続け、矢印13012で示す経路に沿って(距離dよりも大きい)距離dだけ移動する。入力が経路に沿って移動するとき、仮想オブジェクト11002は、図13Gに示す位置までx軸周りに(25度だけ)回転する。図13E~13Gに示すように、距離d+dだけの接触13008の移動により、仮想オブジェクト11002はx軸周りに30度回転する一方、図13B~13Cにおいて、距離dだけの接触13004の移動により、仮想オブジェクト11002はy軸回りに35度回転する。 13F-13G show additional inputs to rotate the virtual object 11002 around the x-axis shown in FIG. 13A. In FIG. 13F, the contact 1308 continues its movement and travels a distance d 2 (greater than the distance d 1 ) along the path indicated by the arrow 13012. As the input moves along the path, the virtual object 1102 rotates about the x-axis (only 25 degrees) to the position shown in FIG. 13G. As shown in FIGS. 13E to 13G, the movement of the contact 13008 only at the distance d 1 + d 2 causes the virtual object 11002 to rotate 30 degrees around the x-axis, while in FIGS. 13B to 13C, the contact 13004 only at the distance d 1 Due to the movement, the virtual object 11002 rotates 35 degrees around the y-axis.

(例えば、接触13008の移動により、回転限界を越えて達する仮想オブジェクト11002の回転量を引き起こしたことを示すために)接触13008がタッチスクリーン112からリフトオフされた後、仮想オブジェクト11002は、図13G~13Hに示すように、接触13008の移動によって引き起こされる回転の方向とは反対の方向に回転する。 After the contact 13008 is lifted off the touch screen 112 (for example, to show that the movement of the contact 1308 has caused the amount of rotation of the virtual object 11002 to reach beyond the rotation limit), the virtual object 11002 As shown in 13H, the object rotates in the direction opposite to the direction of rotation caused by the movement of the contact 13008.

図13G~13Iにおいて、影13006は、(例えば、オブジェクトを下から見たときには、仮想オブジェクト11002は影を投じないため)示されていない。 In FIGS. 13G-13I, the shadow 13006 is not shown (for example, because the virtual object 11002 does not cast a shadow when the object is viewed from below).

図13Iにおいて、(例えば、図13Aに示すように)仮想オブジェクト11002をそれが本来表示されていた視点に復帰させる入力(例えば、二重タップ入力)が検出される。入力は、接触13014によって示すように、仮想オブジェクト11002に対応する位置で行われる。この入力に応答して、仮想オブジェクト11002は、(図13E~13Hから生じた回転を逆にするために)y軸周りに回転させられると共に、(図13B~13Dから生じた回転を逆にするために)x軸周りに回転させられる。図13Jにおいて、接触13016による入力により、仮想オブジェクト11002は元々表示されていた視点に復帰する。 In FIG. 13I, an input (eg, double tap input) that returns the virtual object 11002 (eg, as shown in FIG. 13A) to the viewpoint from which it was originally displayed is detected. The input is made at the position corresponding to the virtual object 11002, as indicated by contact 13014. In response to this input, the virtual object 11002 is rotated about the y-axis (to reverse the rotations generated from FIGS. 13E-13H) and reverses the rotations generated from FIGS. 13B-13D. (Because) it is rotated around the x-axis. In FIG. 13J, the virtual object 11002 returns to the originally displayed viewpoint by the input by the contact 13016.

一部の実施形態では、ステージングユーザーインターフェース6010が表示されている間に、仮想オブジェクト11002のサイズを調整するための入力が受信される。例えば、仮想オブジェクト11002のサイズを調整するための入力は、仮想オブジェクト11002のサイズを増大させる(例えば、図6N~6Oに関して説明したような)デピンチジェスチャ、又は仮想オブジェクト11002のサイズを減少させるピンチジェスチャである。 In some embodiments, while the staging user interface 6010 is displayed, input for adjusting the size of virtual object 11002 is received. For example, the input for adjusting the size of virtual object 11002 is a depinch gesture that increases the size of virtual object 11002 (eg, as described with respect to FIGS. 6N-6O), or a pinch that reduces the size of virtual object 11002. Gesture.

図13Jにおいて、ステージングユーザーインターフェース6010の表示をカメラの視野6036を含むユーザーインターフェースの表示に置き換えるための入力が受信される。接触13016による入力は、トグル制御6018に対応する位置で検出される。この入力に応答して、ステージングユーザーインターフェース6010の表示は、図13Kに示すように、カメラの視野6036を含むユーザーインターフェースに置き換えられる。 In FIG. 13J, an input is received to replace the display of the staging user interface 6010 with the display of the user interface including the field of view 6036 of the camera. The input by contact 13016 is detected at the position corresponding to the toggle control 6018. In response to this input, the display of the staging user interface 6010 is replaced with a user interface that includes the camera's field of view 6036, as shown in FIG. 13K.

図13Kにおいて、仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェースに表示される。仮想オブジェクト11002に対応するプレーンがカメラの視野6036内で検出されたことを示すために(13018で示すように)触知出力が発生する。カメラの視野6036を含むユーザーインターフェースにおける仮想オブジェクト11002の回転角は、ステージングユーザーインターフェース6010における仮想オブジェクト11002の回転角に対応する。 In FIG. 13K, the virtual object 11002 is displayed on the user interface including the camera field of view 6036. A tactile output is generated (as shown by 13018) to indicate that the plane corresponding to the virtual object 11002 has been detected within the camera's field of view 6036. The angle of rotation of the virtual object 11002 in the user interface including the field of view 6036 of the camera corresponds to the angle of rotation of the virtual object 11002 in the staging user interface 6010.

カメラの視野6036を含むユーザーインターフェースが表示されるとき、図13L~13Mで示すように、横移動を含む入力は、カメラの視野6036を含むユーザーインターフェース内の仮想オブジェクト11002の横移動を引き起こす。図13Lにおいて、接触13020は仮想オブジェクト11002に対応する位置で検出され、接触は矢印13022で示す経路に沿って移動する。接触が移動すると、仮想オブジェクト11002は、(図13Lに示すような)第1の位置から(図13Mに示すような)第2の位置へ接触13020の移動に対応する経路に沿って移動する。 When the user interface including the camera field of view 6036 is displayed, inputs including lateral movement cause lateral movement of the virtual object 11002 in the user interface including the camera field of view 6036, as shown in FIGS. 13L-13M. In FIG. 13L, the contact 13020 is detected at the position corresponding to the virtual object 11002, and the contact moves along the path indicated by the arrow 13022. When the contact moves, the virtual object 1102 moves from the first position (as shown in FIG. 13L) to the second position (as shown in FIG. 13M) along the path corresponding to the movement of the contact 13020.

一部の実施形態では、図5AJ~5AMに関して説明したように、カメラの視野6036を含むユーザーインターフェースが表示されるときに提供される入力は、仮想オブジェクト11002を第1のプレーン(例えば、床面5038)から第2のプレーン(例えば、テーブル基準面5046)への移動させることができる。 In some embodiments, as described with respect to FIGS. 5AJ-5AM, the input provided when the user interface including the camera field of view 6036 is displayed is the virtual object 1102 on the first plane (eg, the floor surface). It can be moved from 5038) to a second plane (eg, table reference plane 5046).

図14A~14Zは、移動の第1の閾値大きさが第1のオブジェクト操作挙動について満たされるとの判定に応じて、第2のオブジェクト操作挙動に必要な移動の第2の閾値大きさを増大させるユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図14AA~14AD、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 14A-14Z increase the second threshold magnitude of movement required for the second object manipulation behavior in response to the determination that the first threshold magnitude of movement is satisfied for the first object manipulation behavior. Here is an example of a user interface to let you. The user interfaces in these figures are FIGS. 8A-8E, 9A-9D, 10A-10D, 14AA-14AD, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and FIGS. It is used to illustrate the processes described below, including the processes at 20A-20F. For convenience of illustration, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the representative point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact). Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional and separate from the display 450 in response to detecting contact on the touch sensitive surface 451 while displaying the user interface shown in the figure on the display 450 with the focus selector. It is performed on a device having a touch sensing surface 451.

図14Aにおいて、仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェースに表示される。図14B~14Zに関して更に説明するように、並進移動量計14002、スケーリング移動量計14004、回転移動量計14006を用いて、オブジェクトの操作挙動(例えば、並進動作、スケーリング動作、及び/又は回転動作)に対応するそれぞれの移動の大きさを示す。並進移動量計14002は、タッチスクリーンディスプレイ112上に1組の接触の横(例えば、左向き又は右向きの)移動の大きさを示す。スケーリング移動量計14004は、タッチスクリーンディスプレイ112上に1組の接触におけるそれぞれの接触間の距離の増加又は減少の大きさ(例えば、ピンチジェスチャ又はデピンチジェスチャの大きさ)を示す。回転移動量計14006は、タッチスクリーンディスプレイ112上に1組の接触の回転移動の大きさを示す。 In FIG. 14A, the virtual object 11002 is displayed in a user interface that includes a camera field of view 6036. As will be further described with respect to FIGS. 14B-14Z, the operation behavior of the object (eg, translational movement, scaling movement, and / or rotational movement) is used by using the translation movement amount meter 14002, the scaling movement amount meter 14004, and the rotation movement amount meter 14006. ) Indicates the magnitude of each movement. The translational movement meter 14002 indicates the magnitude of lateral (eg, left or right) movement of a set of contacts on the touch screen display 112. The scaling movement meter 14004 indicates the magnitude of the increase or decrease in the distance between each contact in a set of contacts (eg, the magnitude of the pinch gesture or the depinch gesture) on the touch screen display 112. The rotational movement meter 14006 indicates the magnitude of the rotational movement of a set of contacts on the touch screen display 112.

図14B~14Eは、1つ以上のカメラの視野6036を含むユーザーインターフェースにおいて仮想オブジェクト11002を回転させる入力を示す。仮想オブジェクト11002を回転させる入力は、第1の接触14008が矢印14010で示す経路に沿って時計方向に回転移動し、第2の接触14012が矢印14014で示す経路に沿って時計方向に回転移動するジェスチャを含む。図14Bでは、タッチスクリーン112との接触14008及び14012が検出される。図14Cにおいて、接触14008は、矢印14010で示す経路に沿って移動しており、接触14012は、矢印14012で示す経路に沿って移動している。図14Cでは、接触14008及び接触14012の回転移動の大きさが、まだ閾値RTに達していないので、仮想オブジェクト11002は、まだ入力に応答して回転していない。図14Dにおいて、接触14008及び接触14012の回転移動の大きさは閾値RTを超えて増大しており、仮想オブジェクト11002は入力に応答して(図14Bに示す仮想オブジェクト11002の位置に対して)回転している。回転移動の大きさが閾値RTを超えて増大するとき、仮想オブジェクト11002をスケーリングするのに必要な移動の大きさは増大し(例えば、スケーリング閾値STは、スケーリング移動量計14004で示すように、STからST'に増大しており)、仮想オブジェクト11002を並進するのに必要な移動の大きさは増大する(例えば、並進移動量計14002で示すように、並進閾値TTは、TTからTT'に増大している)。図14Eにおいて、接触14008及び接触14012は、それぞれ矢印14010及び14014で示す回転経路に沿って移動し続けており、仮想オブジェクト11002は入力に応答して回転し続けている。図14Fにおいて、接触14008及び14012は、タッチスクリーン112からリフトオフされている。 14B-14E show inputs to rotate virtual object 11002 in a user interface that includes a field of view 6036 for one or more cameras. As for the input for rotating the virtual object 11002, the first contact 14008 rotates clockwise along the path indicated by the arrow 14010, and the second contact 14012 rotates clockwise along the path indicated by the arrow 14014. Including gestures. In FIG. 14B, contacts 14008 and 14012 with the touch screen 112 are detected. In FIG. 14C, the contact 14008 is moving along the path indicated by arrow 14010, and the contact 14012 is moving along the path indicated by arrow 14012. In FIG. 14C, the virtual object 11002 has not yet rotated in response to the input because the magnitude of the rotational movement of the contact 14008 and the contact 14012 has not yet reached the threshold RT. In FIG. 14D, the magnitude of the rotational movement of contact 14008 and contact 14012 has increased beyond the threshold RT, and virtual object 11002 rotates in response to input (relative to the position of virtual object 11002 shown in FIG. 14B). is doing. When the magnitude of the rotational movement increases beyond the threshold RT, the amount of movement required to scale the virtual object 11002 increases (eg, the scaling threshold ST is as shown by the scaling movement meter 14004). (Increasing from ST to ST'), the amount of movement required to translate the virtual object 11002 increases (eg, as shown by the translational movement meter 14002, the translation threshold TT is from TT to TT'. Is increasing). In FIG. 14E, contact 14008 and contact 14012 continue to move along the rotation paths indicated by arrows 14010 and 14014, respectively, and virtual object 11002 continues to rotate in response to input. In FIG. 14F, contacts 1408 and 14012 are lifted off from the touch screen 112.

図14G~14Iは、1つ以上のカメラの視野6036を含むユーザーインターフェース内の仮想オブジェクト11002をスケーリングする(例えば、そのサイズを増大する)入力を示す。仮想オブジェクト11002のサイズを増大させる入力は、(例えば、接触14016と接触14020との間の距離が増大するように)第1の接触14016が矢印14018で示す経路に沿って移動し、第2の接触14020が矢印14022で示す経路に沿って移動するジェスチャを含む。図14Gでは、タッチスクリーン112との接触14016及び14020が検出される。図14Hにおいて、接触14016は矢印14018で示す経路に沿って移動しており、接触14020は矢印14022で示す経路に沿って移動している。図14Hにおいて、接触14020から離れた接触14016の移動の大きさは、閾値STに達していないので、仮想オブジェクト11002のサイズは、入力に応答してまだ調整されていない。図14Iにおいて、接触14016及び接触14020のスケーリング移動の大きさは閾値STを超えて増大しており、仮想オブジェクト11002のサイズはその入力に応答して(図14Hに示す仮想オブジェクト11002のサイズに対して)増大している。スケーリング移動の大きさが閾値STを超えて増大するとき、仮想オブジェクト11002を回転させるのに必要な移動の大きさは増大し(例えば、回転移動量計14006で示すように、回転閾値RTはRTからRT'へ増大しており)、仮想オブジェクト11002を並進するのに必要な移動の大きさは増大する(例えば、並進移動量計14002で示すように、並進閾値TTはTTからTT'へ増大している)。図14Jにおいて、接触14016及び14020はタッチスクリーン112からリフトオフしている。 14G-14I show inputs that scale (eg, increase in size) the virtual object 11002 in the user interface that includes the field of view 6036 of one or more cameras. An input that increases the size of the virtual object 11002 is that the first contact 14016 moves along the path indicated by arrow 14018 (eg, so that the distance between the contact 14016 and the contact 14020 increases) and the second. Includes a gesture in which contact 14020 travels along the path indicated by arrow 14022. In FIG. 14G, contacts 14016 and 14020 with the touch screen 112 are detected. In FIG. 14H, the contact 14016 is moving along the path indicated by arrow 14018 and the contact 14020 is moving along the path indicated by arrow 14022. In FIG. 14H, the size of the virtual object 11002 has not yet been adjusted in response to the input, as the magnitude of movement of the contact 14016 away from the contact 14020 has not reached the threshold ST. In FIG. 14I, the magnitude of the scaling movement of contact 14016 and contact 14020 has increased beyond the threshold ST, and the size of virtual object 11002 responds to its input (relative to the size of virtual object 11002 shown in FIG. 14H). It is increasing. When the magnitude of the scaling movement increases beyond the threshold ST, the size of the movement required to rotate the virtual object 11002 increases (eg, as shown by the rotational movement meter 14006, the rotation threshold RT is RT. (Increasing from to RT'), the amount of movement required to translate the virtual object 11002 increases (eg, as shown by the translational movement meter 14002, the translation threshold TT increases from TT to TT'). is doing). In FIG. 14J, contacts 14016 and 14020 are lifted off from the touch screen 112.

図14K~14Mは、1つ以上のカメラの視野6036を含むユーザーインターフェース内で仮想オブジェクト11002を並進させる(例えば、仮想オブジェクト11002を左へ移動させる)入力を示す。仮想オブジェクト11002を移動させる入力は、(例えば、接触14024及び接触14028が共に左方へ移動するように)第1の接触14024が矢印14026で示す経路に沿って移動し、第2の接触14028が矢印1430で示す経路に沿って移動するジェスチャを含む。図14Kでは、タッチスクリーン112との接触14024及び14028が検出される。図14Lにおいて、接触14024は矢印14026で示す経路に沿って移動しており、接触14028は矢印14030で示す経路に沿って移動している。図14Lにおいて、接触14024及び14028の左方移動の大きさは閾値TTに達していないので、仮想オブジェクト11002は、まだ入力に応答して移動させられていない。図14Mにおいて、接触14024及び接触14028の左方移動の大きさは閾値TTを超えて増大しており、仮想オブジェクト11002は、接触14024及び14028の移動の方向に移動させられている。並進移動の大きさが閾値TTを超えて増大するとき、仮想オブジェクト11002をスケーリングするのに必要な移動の大きさは増大しており(例えば、スケーリング移動量計14004で示すように、スケーリング閾値STは、STからST'に増大している)、仮想オブジェクト11002を回転させるのに必要な移動の大きさは増大している(例えば、回転移動量計14006で示すように、回転閾値RTは、RTからRT'に増大している)。図14Nにおいて、接触14024及び14028はタッチスクリーン112からリフトオフされている。 14K-14M show inputs to translate virtual object 11002 (eg, move virtual object 11002 to the left) within a user interface that includes a field of view 6036 for one or more cameras. The input for moving the virtual object 11002 is that the first contact 14024 moves along the path indicated by arrow 14026 (eg, so that both the contact 14024 and the contact 14028 move to the left) and the second contact 14028 moves. Includes gestures that move along the path indicated by arrow 1430. In FIG. 14K, contacts 14024 and 14028 with the touch screen 112 are detected. In FIG. 14L, the contact 14024 is moving along the path indicated by arrow 14026 and the contact 14028 is moving along the path indicated by arrow 14030. In FIG. 14L, the magnitude of the left movement of contacts 14024 and 14028 has not reached the threshold TT, so that the virtual object 11002 has not yet been moved in response to the input. In FIG. 14M, the magnitude of the left movement of the contacts 14024 and 14028 is increased beyond the threshold TT, and the virtual object 11002 is moved in the direction of the movement of the contacts 14024 and 14028. When the magnitude of the translational movement increases beyond the threshold TT, the size of the movement required to scale the virtual object 11002 is increasing (eg, as shown by the scaling move meter 14004, the scaling threshold ST. Is increasing from ST to ST'), the amount of movement required to rotate the virtual object 11002 is increasing (eg, as shown by the rotation movement meter 14006, the rotation threshold RT is It is increasing from RT to RT'). In FIG. 14N, contacts 14024 and 14028 are lifted off from the touch screen 112.

図14O~14Zは、仮想オブジェクト11002を並進させる(例えば、仮想オブジェクト11002を右に移動させる)、仮想オブジェクト11002をスケーリングする(例えば、仮想オブジェクト11002のサイズを増大させる)、及び仮想オブジェクト11002を回転させるジェスチャを含む入力を示す。図14Oでは、タッチスクリーン112との接触14032及び14036が検出される。図14O~14Pにおいて、接触14032は矢印14034で示す経路に沿って移動し、接触14036は矢印14038で示す経路に沿って移動する。接触14032及び14036の右方移動の大きさは、閾値TTを超えて増大しており、仮想オブジェクト11002は接触14032及び14036の移動方向に移動させられている。接触14032及び14036の移動による閾値TTの満足の結果として、仮想オブジェクト11002をスケーリングするのに必要な移動の大きさはST'に増大し、仮想オブジェクト11002を回転させるのに必要な移動の大きさはRT'になる。(図14Qにおける並進移動量計14002で示される高ウォーターマーク14043によって示すように)閾値TTを満足した後、接触14032及び14036の任意の横移動により、仮想オブジェクト11002の横移動を引き起こす。 14O-14Z translate virtual object 11002 (eg, move virtual object 11002 to the right), scale virtual object 11002 (eg, increase the size of virtual object 11002), and rotate virtual object 11002. Indicates an input that contains a gesture to cause. In FIG. 14O, contacts 14032 and 14036 with the touch screen 112 are detected. In FIGS. 14O-14P, the contact 14032 moves along the path indicated by arrow 14034 and the contact 14036 moves along the path indicated by arrow 14038. The magnitude of the right movement of contacts 14032 and 14036 has increased beyond the threshold TT, and the virtual object 11002 has been moved in the direction of movement of contacts 14032 and 14036. As a result of the satisfaction of the threshold TT due to the movements of contacts 14032 and 14036, the amount of movement required to scale the virtual object 11002 increases to ST'and the amount of movement required to rotate the virtual object 11002. Becomes RT'. After satisfying the threshold TT (as indicated by the high watermark 14043 indicated by the translational movement meter 14002 in FIG. 14Q), any lateral movement of contacts 14032 and 14036 causes lateral movement of virtual object 11002.

図14Q~14Rにおいて、接触14032は矢印14040で示す経路に沿って移動し、接触14036は矢印14042で示す経路に沿って移動する。図14Rにおいて、接触14036から離れた接触14032の移動の大きさは、元のスケーリング閾値STを超えているが、増大したスケーリング閾値ST'に達していない。増大したスケーリング移動閾値ST'が効果的であるとき、接触14036から離れた接触14032の移動の大きさが増大したスケーリング移動閾値ST'を超えて増大するまでスケーリングは起こらず、したがって、仮想オブジェクト11002のサイズは、図14Q~14Rから変化していない。図14R~14Sにおいて、接触14032が矢印14044で示す経路に沿って移動し、接触14036が矢印14046で示す経路に沿って移動するとき、接触14032と14046の間の距離は増大し続ける。図14Sにおいて、接触14036から離れた接触14032の移動の大きさは、増大したスケーリング閾値ST'を超えており、仮想オブジェクト11002のサイズは増大している。(図14Tにおけるスケーリング移動量計14004で示す高ウォーターマーク14047によって示すように)閾値ST'が満足された後、接触14032及び14036の任意のスケーリング移動によって、仮想オブジェクト11002のスケーリングを引き起こす。 In FIGS. 14Q-14R, the contact 14032 moves along the path indicated by arrow 14040, and the contact 14036 moves along the path indicated by arrow 14042. In FIG. 14R, the magnitude of movement of the contact 14032 away from the contact 14036 exceeds the original scaling threshold ST, but does not reach the increased scaling threshold ST'. When the increased scaling movement threshold ST'is effective, scaling does not occur until the magnitude of movement of the contact 14032 away from the contact 14036 increases beyond the increased scaling movement threshold ST', and thus the virtual object 11002. The size of is not changed from FIGS. 14Q to 14R. In FIGS. 14R-14S, the distance between contacts 14032 and 14046 continues to increase as contact 14032 travels along the path indicated by arrow 14044 and contact 14036 travels along the path indicated by arrow 14046. In FIG. 14S, the magnitude of the movement of the contact 14032 away from the contact 14036 exceeds the increased scaling threshold ST', and the size of the virtual object 11002 is increasing. After the threshold ST'is satisfied (as indicated by the high watermark 14047 shown by the scaling move meter 14004 in FIG. 14T), any scaling move of contacts 14032 and 14036 causes scaling of virtual object 11002.

図14T~14Uにおいて、接触14032は矢印14048で示す経路に沿って移動し、接触14036は矢印14050で示す経路に沿って移動する。(並進移動量計14002で示す高ウォーターマーク14043によって示すように)閾値TTが満たされているので、仮想オブジェクト11002は、接触14032及び14036の横移動の方向に自由に移動する。 In FIGS. 14T-14U, the contact 14032 travels along the path indicated by arrow 14048 and the contact 14036 travels along the path indicated by arrow 14050. Since the threshold TT is satisfied (as indicated by the high watermark 14043 indicated by the translational movement meter 14002), the virtual object 11002 is free to move in the direction of lateral movement of contacts 14032 and 14036.

図14V~14Wにおいて、接触14032は矢印14052で示す経路に沿って移動し、接触14036は矢印14054で示す経路に沿って移動する。接触14032及び14036の移動は、並進移動(接触14032及び14036の左方移動)と、スケーリング移動(接触14032と接触14036との間の距離を減少させる移動(例えば、ピンチジェスチャ))とを含む。(並進移動量計14002で示される高ウォーターマーク14043によって示すように)並進閾値TTが満足させられたため、仮想オブジェクト11002は、接触14032及び14036の横移動の方向に自由に移動し、(スケーリング移動量計14004で示される高ウォーターマーク14047によって示すように)増大したスケーリング閾値ST'が満足させられたため、仮想オブジェクト11002は、接触14032の接触14036の方への移動に応じて自由にスケーリングする。図14Vから14Wまで、仮想オブジェクト11002のサイズは減少しており、仮想オブジェクト11002は、矢印14052で示す経路に沿った接触14032の移動、及び矢印14054で示す経路に沿った接触14036の移動に応じて左方に移動している。 In FIGS. 14V-14W, the contact 14032 travels along the path indicated by arrow 14052 and the contact 14036 travels along the path indicated by arrow 14054. The movement of contacts 14032 and 14036 includes translational movements (movements to the left of contacts 14032 and 14036) and scaling movements (movements that reduce the distance between contact 14032 and contact 14036 (eg, pinch gestures)). Since the translation threshold TT was satisfied (as indicated by the high watermark 14043 indicated by the translational movement meter 14002), the virtual object 11002 is free to move in the direction of lateral movement of contacts 14032 and 14036 (scaling movement). Since the increased scaling threshold ST'(as indicated by the high watermark 14047 indicated by the quantometer 14004) is satisfied, the virtual object 11002 scales freely in response to the movement of the contact 14032 towards the contact 14036. From 14V to 14W, the size of the virtual object 11002 is reduced, and the virtual object 11002 responds to the movement of the contact 14032 along the path indicated by arrow 14052 and the movement of the contact 14036 along the path indicated by arrow 14054. Is moving to the left.

図14X~14Zでは、接触14032が矢印14056で示す経路に沿って反時計方向に回転移動し、接触14036が矢印14058で示す経路に沿って反時計方向に回転移動する。図14Yにおいて、接触14032及び接触14036の回転移動の大きさは、元のスケーリング閾値RTを超えているが、増大したスケーリング閾値RT'に達していない。増大したスケーリング移動閾値RT'が効果的であるとき、接触14032及び14036の回転移動の大きさが増大した回転移動閾値RT'を超えて増大するまで仮想オブジェクト11002の回転は起こらず、したがって、仮想オブジェクト11002は、図14X~14Yから回転していない。図14Y~14Zにおいて、接触14032が矢印14060で示す経路に沿って移動し、接触14036が矢印14062で示す経路に沿って移動するとき、接触14032及び14046は反時計方向に回転移動し続ける。図14Zにおいて、接触14032及び接触14036の回転移動の大きさは増大したスケーリング閾値RT'を超えおり、仮想オブジェクト11002は入力に応答して回転している。 In FIGS. 14X-14Z, the contact 14032 rotates counterclockwise along the path indicated by arrow 14056, and the contact 14036 rotates counterclockwise along the path indicated by arrow 14058. In FIG. 14Y, the magnitude of the rotational movement of the contacts 14032 and 14036 exceeds the original scaling threshold RT, but does not reach the increased scaling threshold RT'. When the increased scaling movement threshold RT'is effective, the rotation of virtual object 11002 does not occur until the magnitude of the rotational movement of contacts 14032 and 14036 increases beyond the increased rotational movement threshold RT', thus virtual. Object 11002 is not rotated from FIGS. 14X-14Y. In FIGS. 14Y-14Z, when the contact 14032 moves along the path indicated by arrow 14060 and the contact 14036 moves along the path indicated by arrow 14062, the contacts 14032 and 14046 continue to rotate counterclockwise. In FIG. 14Z, the magnitude of the rotational movement of contact 14032 and contact 14036 exceeds the increased scaling threshold RT', and virtual object 11002 is rotating in response to input.

図14AA~14ADは、移動の第1の閾値大きさが第1のオブジェクト操作挙動について満たされるとの判定に応じて、第2のオブジェクト操作挙動に必要な移動の第2の閾値大きさを増大させる動作を示すフロー図である。図14AA~14ADに関して説明する動作は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)、及びタッチ感知面(例えば、タッチ感知面、又は表示生成コンポーネントとタッチ感知面の両方としての役割を果たすタッチスクリーンディスプレイ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)で実行される。図14AA~14ADに関して説明した一部の動作は任意選択で組み合わされ、及び/又は一部の動作の順序は任意選択で変更される。 14AA-14AD increase the second threshold magnitude of movement required for the second object manipulation behavior in response to the determination that the first threshold magnitude of movement is satisfied for the first object manipulation behavior. It is a flow diagram which shows the operation which makes it make. Operations described with respect to FIGS. 14AA-14AD serve as display generation components (eg, displays, projectors, heads-up displays, etc.) and touch-sensitive surfaces (eg, touch-sensitive surfaces, or both display-generating components and touch-sensitive surfaces. It is performed on an electronic device (eg, device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A) having an electronic device (eg, the device 300 of FIG. 3). Some of the operations described with respect to FIGS. 14AA-14AD are optionally combined and / or the order of some operations is changed by option.

動作14066で、1つ以上の接触の移動を含むユーザー入力の第1の部分が検出される。動作14068で、(例えば、仮想オブジェクト11002に対応する位置における)1つ以上の接触の移動が、オブジェクト回転閾値(例えば、回転移動量計14006が示す回転閾値RT)を超えて増大するか否かが判定される。1つ以上の接触の移動が(例えば、図14B~14Dに関して説明するように)オブジェクト回転閾値を超えて増大しているとの判定に応じて、流れは動作14070に進む。1つ以上の接触の移動がオブジェクト回転閾値を超えて増大していないとの判定に応じて、流れは動作14074に進む。 Operation 14066 detects a first portion of user input that includes the movement of one or more contacts. Whether or not the movement of one or more contacts (eg, at the position corresponding to the virtual object 11002) increases beyond the object rotation threshold (eg, the rotation threshold RT indicated by the rotation movement meter 14006) in operation 14068. Is determined. The flow proceeds to operation 14070 in response to the determination that the movement of one or more contacts has increased beyond the object rotation threshold (eg, as described with respect to FIGS. 14B-14D). The flow proceeds to operation 14074 in response to the determination that the movement of one or more contacts has not increased beyond the object rotation threshold.

動作14070で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14B~14Dに関して説明したように)ユーザー入力の第1の部分に基づいて回転させられる。動作14072で、オブジェクト並進閾値は(例えば、図14Dに関して説明したように、TTからTT'まで)増大し、オブジェクトスケーリング閾値は(例えば、図14Dに関して説明したように、STからST'まで)まで増大する。流れは、Aで示すように、動作14072から図14ABの動作14086に進む。 At operation 14070, the object (eg, virtual object 11002) is rotated based on a first portion of user input (eg, as described with respect to FIGS. 14B-14D). At operation 14072, the object translation threshold increases (eg, from TT to TT'as described with respect to FIG. 14D) and the object scaling threshold increases (eg, from ST to ST'as described with respect to FIG. 14D). Increase. The flow proceeds from operation 14072 to operation 14086 in FIG. 14AB, as shown by A.

動作14074で、(例えば、仮想オブジェクト11002に対応する位置での)1つ以上の接触の移動が、オブジェクト並進閾値(例えば、並進移動量計14002によって示す並進閾値TT)を超えて増大しているか否かが判定される。(例えば、図14K~14Mに関して説明するように)1つ以上の接触の移動がオブジェクト並進閾値を超えて増大するとの判定に応じて、流れは動作14076へ進む。1つ以上の接触の移動がオブジェクト並進閾値を超えて増大していないとの判定に応じて、流れは動作14080へ進む。 In operation 14074, is the movement of one or more contacts (eg, at the position corresponding to the virtual object 11002) increased beyond the object translation threshold (eg, the translation threshold TT indicated by the translational movement meter 14002)? Whether or not it is determined. The flow proceeds to operation 14076 in response to the determination that the movement of one or more contacts increases beyond the object translation threshold (as described, for example, with respect to FIGS. 14K-14M). The flow proceeds to operation 14080 in response to the determination that the movement of one or more contacts has not increased beyond the object translation threshold.

動作14076で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14K~14Mに関して説明したように)ユーザー入力の第1の部分に基づいて並進される。動作14078で、オブジェクト回転閾値は(例えば、図14Mに関して説明したように、RTからRT'へ)増大させられ、オブジェクトスケーリング閾値は(例えば、図14Mに関して説明したように、STからST'へ)増大させられる。Bに示すように、流れは、動作14078から図14ACの動作14100に進む。 At operation 14076, the object (eg, virtual object 11002) is translated based on the first part of user input (eg, as described with respect to FIGS. 14K-14M). At operation 14078, the object rotation threshold is increased (eg, from RT to RT'as described with respect to FIG. 14M) and the object scaling threshold is increased (eg, from ST to ST'as described with respect to FIG. 14M). Can be increased. As shown in B, the flow proceeds from operation 14078 to operation 14100 of FIG. 14AC.

動作14080で、(例えば、仮想オブジェクト11002に対応する位置での)1つ以上の接触の移動は、オブジェクトスケーリング閾値(例えば、スケーリング移動量計14004で示すスケーリング閾値ST)を超えて増大するか否かが判定される。1つ以上の接触の移動が(例えば、図14G~14Iに関して説明したような)オブジェクトスケーリング閾値を超えて増大するとの判定に応じて、流れは動作14082に進む。1つ以上の接触の移動がオブジェクトスケーリング閾値を超えて増大していないとの判定に応じて、流れは動作14085に進む。 Whether or not the movement of one or more contacts (eg, at the position corresponding to the virtual object 11002) increases beyond the object scaling threshold (eg, the scaling threshold ST indicated by the scaling movement meter 14004) in operation 14080. Is determined. The flow proceeds to operation 14082 in response to the determination that the movement of one or more contacts increases beyond the object scaling threshold (eg, as described with respect to FIGS. 14G-14I). The flow proceeds to operation 14085 in response to the determination that the movement of one or more contacts has not increased beyond the object scaling threshold.

動作14082で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14G~14Iに関して説明したように)ユーザー入力の第1の部分に基づいてスケーリングされる。動作14084では、オブジェクト回転閾値は(例えば、図14Iに関して説明するように、RTからRT'に)増大し、オブジェクト並進閾値は(例えば、図14Iに関して説明するように、TTからTT'に)増大する。Cで示すように、流れは動作14084から図14ADの動作14114へ進む。 At operation 14082, the object (eg, virtual object 11002) is scaled based on a first portion of user input (eg, as described with respect to FIGS. 14G-14I). In operation 14084, the object rotation threshold increases (eg, from RT to RT'as described for FIG. 14I) and the object translation threshold increases (eg, from TT to TT', as described for FIG. 14I). do. As shown by C, the flow proceeds from operation 14084 to operation 14114 of FIG. 14AD.

動作14085で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14086から動作14066へ進む。 Operation 14085 detects additional parts of user input that include the movement of one or more contacts. The flow proceeds from operation 14086 to operation 14066.

図14ABにおいて、動作14086で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14086から動作14088へ進む。 In FIG. 14AB, operation 14086 detects additional parts of user input that include the movement of one or more contacts. The flow proceeds from operation 14086 to operation 14088.

動作14088で、1つ以上の接触の移動が回転運動であるか否かが判定される。1つ以上の接触の移動が回転運動であるとの判定に応じて、流れは動作14090に進む。1つ以上の接触の移動が回転運動でないとの判定に応じて、流れは動作14092に進む。 In motion 14088, it is determined whether the movement of one or more contacts is a rotational motion. Depending on the determination that the movement of one or more contacts is a rotary motion, the flow proceeds to motion 14090. Depending on the determination that the movement of one or more contacts is not a rotary motion, the flow proceeds to motion 14092.

動作14090で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14D~14Eに関して説明したように)ユーザー入力の追加部分に基づいて回転させられる。回転閾値が予め満たされていたので、オブジェクトは、追加の回転入力に応じて自由に回転する。 At operation 14090, the object (eg, virtual object 11002) is rotated based on additional user input (eg, as described with respect to FIGS. 14D-14E). Since the rotation threshold was pre-filled, the object is free to rotate in response to additional rotation inputs.

動作14092で、1つ以上の接触の移動が、増大したオブジェクト並進閾値(例えば、図14Dの並進移動量計14002によって示す並進閾値TT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト並進閾値を超えて増大しているとの判定に応じて、流れは動作14094に進む。1つ以上の接触の移動が増大したオブジェクト並進閾値を超えて増大していないとの判定に応じて、流れは動作14096に進む。 In operation 14092, it is determined whether the movement of one or more contacts has increased beyond the increased object translation threshold (eg, the translation threshold TT'shown by the translational movement meter 14002 in FIG. 14D). The flow proceeds to operation 14094 in response to the determination that the movement of one or more contacts has increased beyond the increased object translation threshold. The flow proceeds to operation 14096 in response to the determination that the movement of one or more contacts has not increased beyond the increased object translation threshold.

動作14094では、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて並進される。 In operation 14094, the object (eg, virtual object 11002) is translated based on the additional portion of user input.

動作14096では、1つ以上の接触の移動が、増大したオブジェクトスケーリング閾値(例えば、図14Dのスケーリング移動量計14004によって示されるスケーリング閾値ST')を超えて増大しているか否か判定される。1つ以上の接触の移動が、増大したオブジェクトスケーリング閾値を超えて増大しているとの判定に応じて、流れは動作14098に進む。1つ以上の接触の移動が、増大したオブジェクトスケーリング閾値を超えて増大していないとの判定に応じて、流れは動作14086に戻る。 In operation 14096, it is determined whether the movement of one or more contacts has increased beyond the increased object scaling threshold (eg, the scaling threshold ST'indicated by the scaling movement meter 14004 in FIG. 14D). The flow proceeds to operation 14098 in response to the determination that the movement of one or more contacts has increased beyond the increased object scaling threshold. The flow returns to operation 14086 in response to the determination that the movement of one or more contacts has not increased beyond the increased object scaling threshold.

動作14098で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいてスケーリングされる。 At operation 14098, the object (eg, virtual object 11002) is scaled based on additional parts of user input.

図14ACにおいて、動作14100で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14100から動作14102に進む。 In FIG. 14AC, operation 14100 detects additional parts of user input that include the movement of one or more contacts. The flow proceeds from operation 14100 to operation 14102.

動作14102で、1つ以上の接触の移動が並進移動であるか否か判定される。1つ以上の接触の移動が並進移動であるとの判定に応じて、流れは動作140104に進む。1つ以上の接触の移動が並進移動でないとの判定に応じて、流れは動作14106に進む。 In operation 14102, it is determined whether or not the movement of one or more contacts is a translational movement. Depending on the determination that the movement of one or more contacts is a translational movement, the flow proceeds to operation 140104. The flow proceeds to operation 14106 in response to the determination that the movement of one or more contacts is not a translational movement.

動作14104で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて並進させられる。並進閾値が予め満たされていたので、オブジェクトは、追加の並進入力に応じて自由に並進する。 At operation 14104, the object (eg, virtual object 11002) is translated based on the additional portion of user input. Since the translation threshold was pre-filled, the object is free to translate in response to additional translation inputs.

動作14106で、1つ以上の接触の移動が、増大したオブジェクト回転閾値(例えば、図14Mの回転移動量計14006で示す回転閾値RT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大しているとの判定に応じて、流れは動作14108に進む。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大していないとの判定に応じて、流れは動作14110に進む。 In operation 14106, it is determined whether or not the movement of one or more contacts has increased beyond the increased object rotation threshold (eg, rotation threshold RT'shown by the rotational movement meter 14006 in FIG. 14M). The flow proceeds to operation 14108 in response to the determination that the movement of one or more contacts has increased beyond the increased object rotation threshold. The flow proceeds to operation 14110 in response to the determination that the movement of one or more contacts has not increased beyond the increased object rotation threshold.

動作14108で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて回転させられる。 At operation 14108, the object (eg, virtual object 11002) is rotated based on additional user input.

動作14110で、1つ以上の接触の移動が増大したオブジェクトスケーリング閾値(例えば、図14Mのスケーリング移動量計14004で示すスケーリング閾値ST')を超えて増大しているか否かが判定される。1つ以上の接触の移動が増大したオブジェクトスケーリング閾値を超えて増大しているとの判定に応じて、流れは動作14112に進む。1つ以上の接触の移動が増大したオブジェクトスケーリング閾値を超えて増大していないとの判定に応じて、流れは動作14100に戻る。 In operation 14110, it is determined whether or not the movement of one or more contacts has increased beyond the increased object scaling threshold (eg, the scaling threshold ST'shown by the scaling movement meter 14004 in FIG. 14M). The flow proceeds to operation 14112 in response to the determination that the movement of one or more contacts has increased beyond the increased object scaling threshold. The flow returns to operation 14100 in response to the determination that the movement of one or more contacts has not increased beyond the increased object scaling threshold.

動作14112で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいてスケーリングされる。 At operation 14112, the object (eg, virtual object 11002) is scaled based on the additional portion of user input.

図14ADにおいて、動作14114で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14114から動作14116に進む。 In FIG. 14AD, operation 14114 detects an additional portion of user input that includes the movement of one or more contacts. The flow proceeds from operation 14114 to operation 14116.

動作14116で、1つ以上の接触の移動がスケーリング移動であるか否かが判定される。1つ以上の接触の移動がスケーリング移動であるとの判定に応じて、流れは動作140118に進む。1つ以上の接触の移動がスケーリング移動でないとの判定に応じて、流れは動作14120に進む。 In operation 14116, it is determined whether or not the movement of one or more contacts is a scaling movement. Depending on the determination that the movement of one or more contacts is a scaling movement, the flow proceeds to operation 140118. Depending on the determination that the movement of one or more contacts is not a scaling movement, the flow proceeds to operation 14120.

動作14118で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいてスケーリングされる。スケーリング閾値が予め満たされていたので、オブジェクトは、追加のスケーリング入力に応じて自由にスケーリングされる。 At operation 14118, the object (eg, virtual object 11002) is scaled based on the additional portion of user input. Since the scaling threshold was pre-filled, the object is free to scale in response to additional scaling inputs.

動作14120で、1つ以上の接触の移動が、増大したオブジェクト回転閾値(例えば、図14Iの回転移動量計14006で示す回転閾値RT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大しているとの判定に応じて、流れは動作14122に進む。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大していないとの判定に応じて、流れは動作14124に進む。 In operation 14120, it is determined whether the movement of one or more contacts is increased beyond the increased object rotation threshold (eg, rotation threshold RT'shown by the rotational movement meter 14006 in FIG. 14I). The flow proceeds to operation 14122 in response to the determination that the movement of one or more contacts has increased beyond the increased object rotation threshold. The flow proceeds to operation 14124 in response to the determination that the movement of one or more contacts has not increased beyond the increased object rotation threshold.

動作14122で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて回転させられる。 In operation 14122, the object (eg, virtual object 11002) is rotated based on additional user input.

動作14124で、1つ以上の接触の移動が、増大したオブジェクト並進閾値(例えば、図14Iの並進移動量計14002で示す並進閾値TT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト並進閾値を超えて増大しているとの判定に応じて、流れは動作14126に進む。1つ以上の接触の移動が、増大したオブジェクト並進閾値を超えて増大していないとの判定に応じて、流れは動作14114に進む。 In operation 14124, it is determined whether the movement of one or more contacts has increased beyond the increased object translation threshold (eg, the translation threshold TT'shown by the translational movement meter 14002 in FIG. 14I). The flow proceeds to operation 14126 in response to the determination that the movement of one or more contacts has increased beyond the increased object translation threshold. The flow proceeds to operation 14114 in response to the determination that the movement of one or more contacts has not increased beyond the increased object translation threshold.

図15A~15AIは、デバイスが移動することで、1つ以上のデバイスカメラの表示された視野の外に仮想オブジェクトが移動したという判定に応じて音声警報を生成するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 15A-15AI show examples of user interfaces that generate voice alerts in response to a determination that a virtual object has moved out of the displayed field of view of one or more device cameras as the device moves. The user interfaces in these figures are the processes in FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and 20A-20F. It is used to illustrate the process described below, including. For convenience of illustration, some of the embodiments are discussed with reference to operations performed on the device having the touch-sensitive display system 112. In such embodiments, the focus selector is optionally associated with the contact of each finger or stylus, the representative point corresponding to the contact of the finger or stylus (eg, the face-center of each contact or each contact). Point), or the face-centered cubic of two or more contacts detected on the touch-sensitive display system 112. However, a similar operation is optional and separate from the display 450 in response to detecting contact on the touch sensitive surface 451 while displaying the user interface shown in the figure on the display 450 with the focus selector. It is performed on a device having a touch sensing surface 451.

図15A~15AIは、アクセシビリティ特徴がアクティブであるときに行われるユーザーインターフェース及びデバイスの動作を示す。一部の実施形態では、アクセシビリティ特徴は、(例えば、能力に制限のあるユーザーが上記の入力ジェスチャを行うためにデバイス特徴にアクセスする容易性を高めるために)デバイス特徴にアクセスするために減少した数の入力又は代替入力が使用可能であるモードを含む。例えば、アクセシビリティモードは、利用可能なデバイスを介して動作を前進又は逆転させるために第1の入力ジェスチャ(例えば、スワイプ入力)が使用され、現在示されている動作を実行するために選択入力(例えば、二重タップ入力)が使用されるスイッチ制御モードである。ユーザーがデバイスと対話すると、(例えば、操作が行われたことを示すため、デバイスのステージングユーザーインターフェース又は1つ以上のカメラの視野に対して仮想オブジェクト11002の現在の表示状態を示すため等、ユーザーにフィードバックを提供するために)音声警報が生成される。 FIGS. 15A-15AI show user interface and device behavior when accessibility features are active. In some embodiments, accessibility features are reduced to access device features (eg, to increase the ease with which users with limited capabilities can access the device features to make the above input gestures). Includes modes in which number inputs or alternative inputs are available. For example, accessibility mode uses a first input gesture (eg, swipe input) to move forward or backward through an available device, and select input (eg, swipe input) to perform the currently shown action. For example, a switch control mode in which double tap input) is used. When the user interacts with the device (eg, to indicate the current display state of the virtual object 11002 to the staging user interface of the device or the field of view of one or more cameras, to indicate that an operation has been performed, etc.) A voice alert is generated (to provide feedback to).

図15Aにおいて、メッセージングユーザーインターフェース5008は、三次元仮想オブジェクト11002の二次元表現を含む。(例えば、現在選択されている動作が、仮想オブジェクト11002上で実行される動作であることを示すために)選択カーソル15001が、三次元仮想オブジェクト11002の周囲に示されている。現在指示されている動作(例えば、ステージングユーザーインターフェース6010における仮想オブジェクト11002の三次元表現の表示)を行うために、接触15002による入力(例えば、二重タップ入力)が検出される。図15Bに示すように、この入力に応答して、メッセージングユーザーインターフェース5060の表示は、ステージングユーザーインターフェース6010の表示によって置き換えられる。 In FIG. 15A, the messaging user interface 5008 includes a two-dimensional representation of the three-dimensional virtual object 11002. A selection cursor 15001 is shown around the 3D virtual object 11002 (for example, to indicate that the currently selected action is an action performed on the virtual object 11002). Input by contact 15002 (eg, double tap input) is detected to perform the currently indicated action (eg, display of a three-dimensional representation of virtual object 11002 in the staging user interface 6010). As shown in FIG. 15B, in response to this input, the display of the messaging user interface 5060 is replaced by the display of the staging user interface 6010.

図15Bにおいて、仮想オブジェクト11002は、ステージングユーザーインターフェース6010に表示される。デバイスの状態を示すために、15008で示すように、(例えば、デバイススピーカ111によって)音声警報が生成される。例えば、音声警報15008は、15010で示すように、「現在、椅子はステージングビューで示されている」というアナウンスを含む。 In FIG. 15B, the virtual object 11002 is displayed on the staging user interface 6010. To indicate the state of the device, a voice alert is generated (eg, by the device speaker 111), as shown in 15008. For example, voice alert 15008 includes an announcement that "currently the chair is shown in staging view," as indicated by 15010.

図15Bには、(例えば、現在選択されている動作が、共有動作であることを示すために)選択カーソル15001が、共有制御6020の周囲に示されている。接触15004による入力(例えば、矢印15006で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15B, a selection cursor 15001 is shown around the shared control 6020 (eg, to indicate that the currently selected motion is a shared motion). An input by contact 15004 (eg, a rightward swipe along the path indicated by arrow 15006) is detected. In response to this input, the selected action proceeds to the next action.

図15Cには、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を上方に傾斜させる動作であることを示すために)チルトアップ制御15012が表示されている。デバイスの状態を示すために、15014で示すように、音声警報が生成される。例えば、音声警報は、15016で示すように、「選択済み:チルトアップボタン」というアナウンスを含む。接触15018による入力(例えば、矢印15020で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 FIG. 15C shows the tilt-up control 15012 (for example, to show that the currently selected action is the action of tilting the displayed virtual object 11002 upwards). A voice alert is generated to indicate the state of the device, as shown by 15014. For example, the voice alert includes the announcement "Selected: Tilt Up Button", as indicated by 15016. An input by contact 15018 (eg, a rightward swipe along the path indicated by arrow 15020) is detected. In response to this input, the selected action proceeds to the next action.

図15Dには、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を下方に傾斜させる動作であることを示すために)チルトダウン制御15022が表示されている。音声警報は、15024に示すように、デバイスの状態を示すために生成される。例えば、音声警報は、15026で示すように、「選択済み:チルトダウンボタン」というアナウンスを含む。接触15028による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、仮想オブジェクト11002は、ステージングビュー内で下方に傾斜させられる)。 FIG. 15D shows the tilt down control 15022 (for example, to show that the currently selected action is the action of tilting the displayed virtual object 11002 downward). Voice alerts are generated to indicate the status of the device, as shown in 15024. For example, the voice alert includes the announcement "selected: tilt down button", as indicated by 15026. Input by contact 15028 (eg, double tap input) is detected. In response to this input, the selected action is performed (eg, the virtual object 11002 is tilted down in the staging view).

図15Eにおいて、仮想オブジェクト11002は、ステージングビューにおいて下方に傾斜している。デバイスの状態を示すために、15030に示すように、音声警報が生成される。例えば、音声警報は、「椅子が下に5度傾斜している」というアナウンスを含む。15032に示すように、現在、椅子は画面に向かって10度傾斜している。 In FIG. 15E, the virtual object 11002 is tilted downward in the staging view. A voice alert is generated to indicate the state of the device, as shown in 15030. For example, the voice alert includes an announcement that "the chair is tilted down 5 degrees". As shown in 15032, the chair is now tilted 10 degrees towards the screen.

図15Fにおいて、接触15034による入力(例えば、矢印15036で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15F, an input by contact 15034 (eg, a rightward swipe along the path indicated by arrow 15036) is detected. In response to this input, the selected action proceeds to the next action.

図15Gには、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を時計回りに回転させる動作であることを示すために)時計回り回転制御15038が表示されている。音声警報15040は、15042で示すように、「選択済み:時計回りにボタンを回転させる」というアナウンスを含む。接触15044による入力(例えば、矢印15046で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15G, a clockwise rotation control 15038 is displayed (for example, to show that the currently selected operation is an operation of rotating the displayed virtual object 11002 clockwise). The voice alarm 15040 includes the announcement "Selected: Rotate the button clockwise", as indicated by 15042. An input by contact 15044 (eg, a rightward swipe along the path indicated by arrow 15046) is detected. In response to this input, the selected action proceeds to the next action.

図15Hにおいて、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を反時計回りに回転させる動作であることを示すために)反時計回り回転制御15048が表示される。音声警報15050は、15052で示すように、「選択済み:反時計回りにボタンを回転させる」というアナウンスを含む。接触15054による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、図15Iに示すように、仮想オブジェクト11002は、ステージングビュー内で反時計回りに回転させられる)。 In FIG. 15H, the counterclockwise rotation control 15048 is displayed (for example, to show that the currently selected action is the action of rotating the displayed virtual object 11002 counterclockwise). The voice alarm 15050 includes the announcement "selected: rotate the button counterclockwise", as indicated by 15052. Input by contact 15054 (eg, double tap input) is detected. In response to this input, the selected action is performed (eg, as shown in FIG. 15I, the virtual object 1102 is rotated counterclockwise in the staging view).

図15Iにおいて、15058に示すように、音声警報15056は、「椅子を反時計回りに5度回転します。次に、椅子をスクリーンから離れるように5度回転します。」というアナウンスを含む。 In FIG. 15I, as shown in 15058, the voice alert 15056 includes the announcement "Rotate the chair 5 degrees counterclockwise, then rotate the chair 5 degrees away from the screen."

図15Jにおいて、接触15060による入力(例えば、矢印15062で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15J, an input by contact 15060 (eg, a rightward swipe along the path indicated by arrow 15062) is detected. In response to this input, the selected action proceeds to the next action.

図15Kにおいて、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002をズームする動作であることを示すために)ズーム制御15064が表示される。音声警報15066は、15068で示すように、「縮尺:調節可能」というアナウンスを含む。アナウンスにおいて制御名と併用されるキーワード「調整可能」は、制御を動作させるのにスワイプ入力(例えば、垂直スワイプ入力)が使用可能であることを示す。例えば、上向きのスワイプ入力は、矢印5072で示す経路に沿って接触5070が上方に移動するときに、接触5070によって与えられる。この入力に応答して、ズーム操作が行われる(例えば、図15K~15Lに示すように、仮想オブジェクト11002のサイズが増大する)。 In FIG. 15K, zoom control 15064 is displayed (for example, to show that the currently selected action is the action of zooming the displayed virtual object 11002). The voice alert 15066 includes the announcement "scale: adjustable" as indicated by 15068. The keyword "adjustable", which is used in combination with the control name in the announcement, indicates that a swipe input (eg, a vertical swipe input) can be used to activate the control. For example, an upward swipe input is given by the contact 5070 as the contact 5070 moves upward along the path indicated by arrow 5072. In response to this input, a zoom operation is performed (eg, as shown in FIGS. 15K-15L, the size of the virtual object 11002 increases).

図15Lにおいて、音声警報15074は、15076で示すように、「現在、椅子は元のサイズの150パーセントに調整されている」というアナウンスを含む。仮想オブジェクト11002のサイズを縮小する入力(例えば、下向きのスワイプ入力)は、矢印5078で示す経路に沿って下方に移動する接触5078により与えられる。入力に応答して、ズーム操作が実行される(例えば、図15L~15Mに示すように、仮想オブジェクト11002のサイズは縮小される)。 In FIG. 15L, the voice alert 15074 includes an announcement that "the chair is currently adjusted to 150 percent of its original size," as shown by 15076. Inputs that reduce the size of virtual object 11002 (eg, a downward swipe input) are provided by contact 5078 moving down along the path indicated by arrow 5078. A zoom operation is performed in response to the input (eg, the size of the virtual object 11002 is reduced, as shown in FIGS. 15L-15M).

図15Mにおいて、音声警報15082は、15084で示すように、「現在、椅子は元のサイズの100パーセントに調整されている」というアナウンスを含む。仮想オブジェクト11002のサイズは、ステージングビュー6010において元々表示されたサイズに調整されるので、(例えば、仮想オブジェクト11002がその元のサイズに復帰したことを示すフィードバックを提供するために)(15086で示すような)触知出力が発生する。 In FIG. 15M, the voice alert 15082 includes an announcement that "the chair is now adjusted to 100 percent of its original size," as shown in 15084. The size of the virtual object 11002 is adjusted to the size originally displayed in the staging view 6010 (eg, to provide feedback that the virtual object 11002 has returned to its original size) (shown in 15086). Tactile output occurs.

図15Nにおいて、接触15088による入力(例えば、矢印15090で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15N, an input by contact 15088 (eg, a rightward swipe along the path indicated by arrow 15090) is detected. In response to this input, the selected action proceeds to the next action.

図15Oにおいて、(例えば、現在選択されている動作が先のユーザーインターフェースに復帰する動作であることを示すために)選択カーソル15001がバック制御6016の周囲に示される。音声警報15092は、15094で示すように、「選択済み:復帰ボタン」というアナウンスを含む。接触15096による入力(例えば、矢印15098で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15O, a selection cursor 15001 is shown around the back control 6016 (eg, to indicate that the currently selected action is a return action to the previous user interface). The voice alert 15092 includes the announcement "selected: return button", as indicated by 15094. An input by contact 15096 (eg, a rightward swipe along the path indicated by arrow 15098) is detected. In response to this input, the selected action proceeds to the next action.

図15Pには、(例えば、現在選択されている動作が、ステージングユーザーインターフェース6010の表示とカメラの視野6036を含むユーザーインターフェースの表示との間でトグルする動作であることを示すために)選択カーソル15001が、トグル制御6018の周囲に示されている。音声警報15098は、50100で示すように、「選択済み:ワールドビュー/ステージングビュートグル」というアナウンスを含む。接触15102による入力(例えば、二重タップ入力)が検出される。(図15Qに示すように)この入力に応答して、ステージングユーザーインターフェース6010の表示は、カメラの視野6036を含むユーザーインターフェースの表示によって置き換えられる。 FIG. 15P shows the selection cursor (eg, to show that the currently selected action is an action that toggles between the display of the staging user interface 6010 and the display of the user interface including the camera field of view 6036). 15001 is shown around the toggle control 6018. The voice alert 15098 includes the announcement "Selected: World View / Staging View Toggle" as indicated by 50100. Input by contact 15102 (eg, double tap input) is detected. In response to this input (as shown in FIG. 15Q), the display of the staging user interface 6010 is replaced by the display of the user interface including the field of view 6036 of the camera.

図15Q~15Tは、(例えば、仮想オブジェクト11002に対応するプレーンは、カメラの視野6036内でまだ検出されていないので)カメラの視野6036が表示されるときに発生する較正シーケンスを示す。較正シーケンス中に、仮想オブジェクト11002の半透明表現が表示され、カメラの視野6036がぼかされ、(デバイス100の表現12004及びプレーンの表現12010を含む)動画像を含むプロンプトが表示されて、ユーザーにデバイスの移動を促す。図15Qにおいて、音声警報15102は、50104で示すように、「プレーンを検出するためにデバイスを移動させる」というアナウンスを含む。図15Qから図15Rまで、デバイス100は、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)物理的環境5002に対して移動する。デバイス100の移動の検出の結果として、図15Sで示すように、較正ユーザーインターフェースオブジェクト12014が表示される。 FIGS. 15Q-15T show the calibration sequence that occurs when the camera's field of view 6036 is displayed (eg, because the plane corresponding to the virtual object 11002 has not yet been detected within the camera's field of view 6036). During the calibration sequence, a translucent representation of virtual object 11002 is displayed, the field of view 6036 of the camera is blurred, and a prompt containing moving images (including representation 12004 of device 100 and representation 12010 of plane) is displayed and the user is prompted. Prompt to move the device. In FIG. 15Q, the voice alert 15102 includes the announcement "move the device to detect the plane", as shown by 50104. From FIG. 15Q to FIG. 15R, the device 100 moves relative to the physical environment 5002 (eg, as indicated by the altered position of the table 5004 within the field of view 6036 of the camera). As a result of detecting the movement of the device 100, the calibration user interface object 12014 is displayed, as shown in FIG. 15S.

図15Sにおいて、音声警報15106は、50108で示すように、「プレーンを検出するためにデバイスを移動させる」というアナウンスを含む。図15S~15Tにおいて、較正ユーザーインターフェースオブジェクト12014は、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)デバイス100が物理的環境5002に対して移動するときに回転する。図15Tにおいて、カメラの視野6036内で検出される仮想オブジェクト11002に対応するプレーンについて十分な動きが生じており、音声警報15110は、50112で示すように、「プレーンが検出された」というアナウンスを含む。図15U~15Vにおいて、仮想オブジェクト11002の半透明性は減少し、仮想オブジェクト11002は検出されたプレーン上に配置される。 In FIG. 15S, voice alert 15106 includes the announcement "move the device to detect the plane," as shown by 50108. In FIGS. 15S-15T, the calibration user interface object 12014 rotates as the device 100 moves relative to the physical environment 5002 (eg, as indicated by the altered position of the table 5004 within the field of view 6036 of the camera). .. In FIG. 15T, sufficient movement has occurred with respect to the plane corresponding to the virtual object 11002 detected within the field of view 6036 of the camera, and the voice alert 15110 announces that the plane has been detected, as indicated by 50112. include. In FIGS. 15U-15V, the translucency of virtual object 11002 is reduced and virtual object 11002 is placed on the detected plane.

図15Vにおいて、音声警報15114は、50116で示すように、「現在、椅子は、100パーセント可視でワールドに投影され、スクリーンの10パーセントを占める」というアナウンスを含む。触知出力生成器は、仮想オブジェクト11002がプレーン上に配置されていることを示す触知出力を(15118で示すように)出力する。仮想オブジェクト11002は、物理的環境5002に対して一定の位置に表示される。 In FIG. 15V, the voice alert 15114 includes the announcement that "currently the chair is projected 100 percent visible to the world and occupies 10 percent of the screen," as indicated by 50116. The tactile output generator outputs a tactile output (as shown by 15118) indicating that the virtual object 1102 is located on the plane. The virtual object 11002 is displayed at a fixed position with respect to the physical environment 5002.

図15V~15Wにおいて、デバイス100は、仮想オブジェクト11002がカメラの視野6036内でもはや見えないように(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)物理的環境5002に対して移動させられる。カメラの視野6036の外に仮想オブジェクト11002が移動する結果として、音声警報15122は、50124に示すように、「椅子がスクリーン上にない」というアナウンスを含む。 In FIGS. 15V-15W, device 100 has physical environment 5002 such that virtual object 11002 is no longer visible in camera field of view 6036 (eg, as indicated by the altered position of table 5004 in camera field of view 6036). Is moved to. As a result of the virtual object 11002 moving out of the camera's field of view 6036, the voice alert 15122 includes an announcement that "the chair is not on the screen", as shown in 50124.

図15W~15Xにおいて、デバイス100は、仮想オブジェクト11002が図15Xのカメラの視野6036内で再び見えるように物理的環境5002対して移動されている。仮想オブジェクト11002がカメラの視野6036内に移動する結果として、音声警報15118は、50120に示すように、「現在、椅子は、100パーセント可視でワールドに投影され、スクリーンの10パーセントを占める」というアナウンスを含んで生成される。 In FIGS. 15W-15X, the device 100 is moved relative to the physical environment 5002 so that the virtual object 11002 is visible again within the field of view 6036 of the camera of FIG. 15X. As a result of the virtual object 11002 moving into the camera's field of view 6036, the voice alert 15118 announces that "currently the chair is 100% visible and projected onto the world, occupying 10 percent of the screen," as shown in 50120. Is generated including.

図15X~15Yにおいて、デバイス100は、(例えば、カメラの視野6036内に投影されるときにデバイス100が仮想オブジェクト11002に対して「より近い」ように、及び仮想オブジェクト11002が図15Yのカメラの視野6036内で部分的に見えるように)物理的環境5002に対して移動されている。カメラの視野6036の外に部分的に仮想オブジェクト11002が移動する結果として、音声警報15126は、50128に示すように、「椅子は、90パーセント可視であり、スクリーンの20パーセントを占める」というアナウンスを含む。 In FIGS. 15X-15Y, the device 100 is (eg, such that the device 100 is "closer" to the virtual object 11002 when projected into the field of view 6036 of the camera, and the virtual object 11002 is of the camera of FIG. 15Y. It has been moved relative to the physical environment 5002 (so that it is partially visible within the field of view 6036). As a result of the partial movement of the virtual object 11002 out of the camera's field of view 6036, the voice alert 15126 announces that "the chair is 90 percent visible and occupies 20 percent of the screen," as shown in 50128. include.

一部の実施形態では、仮想オブジェクト11002に対応する位置で与えられる入力により、仮想オブジェクト11002についての言語情報を含む音声メッセージが提供される。反対に、仮想オブジェクト11002及び制御から離れている位置で入力が与えられるときは、仮想オブジェクト11002についての言語情報を含む音声メッセージは提供されない。図15Zにおいて、ユーザーインターフェースにおける制御又は仮想オブジェクト11002の位置に対応しない位置で接触15132が検出されることを示すために、音声出力15130(例えば「クリック」又は「機械音」)が発生する。図15AAにおいて、接触15134による入力は、仮想オブジェクト11002の位置に対応する位置で検出される。この入力に応答して、50138に示すように、(例えば、仮想オブジェクト11002の状態を示す)仮想オブジェクト11002に対応する音声警報15136は、「椅子は、90パーセント可視であり、スクリーンの20パーセントを占める」というアナウンスを含んで生成される。 In some embodiments, the input given at the location corresponding to the virtual object 11002 provides a voice message containing linguistic information about the virtual object 11002. Conversely, when input is given at a location away from virtual object 11002 and control, no voice message containing linguistic information about virtual object 11002 is provided. In FIG. 15Z, audio output 15130 (eg, "click" or "machine sound") is generated to indicate that the contact 15132 is detected at a position that does not correspond to the control in the user interface or the position of the virtual object 11002. In FIG. 15AA, the input by contact 15134 is detected at a position corresponding to the position of virtual object 11002. In response to this input, as shown in 50138, the voice alert 15136 corresponding to virtual object 11002 (eg, indicating the state of virtual object 11002) states that "the chair is 90 percent visible and 20 percent of the screen. Generated with the announcement "occupy".

図15AB~15AIは、カメラの視野6036を含むユーザーインターフェースが表示されている間に、スイッチ制御モードにおいて動作を選択及び実行する入力を示す。 FIGS. 15AB-15AI show inputs to select and perform an operation in switch control mode while the user interface including the camera field of view 6036 is displayed.

図15ABにおいて、接触15140による入力(例えば、矢印15142で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、図15ACで示すように、動作が選択される。 In FIG. 15AB, an input by contact 15140 (eg, a swipe to the right along the path indicated by arrow 15142) is detected. In response to this input, an action is selected, as shown in FIG. 15AC.

図15ACにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を右に移動させる動作であることを示すために)右方横移動制御15144が表示される。音声警報15146は、15148で示されるように、「選択済み:右ボタンを移動する」というアナウンスを含む。接触15150による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、仮想オブジェクト11002は、図15ADに示すように、カメラの視野6036内で右に移動させられる)。 In FIG. 15AC, the right lateral movement control 15144 is displayed (for example, to indicate that the currently selected operation is an operation to move the virtual object 11002 to the right). The voice alert 15146 includes the announcement "selected: move right button", as indicated by 15148. Input by contact 15150 (eg, double tap input) is detected. In response to this input, the selected action is performed (eg, the virtual object 11002 is moved to the right within the camera's field of view 6036, as shown in FIG. 15AD).

図15ADにおいて、仮想オブジェクト11002の移動は、15154で示すように、「椅子は、100パーセント可視であり、スクリーンの30パーセントを占める」というアナウンスを含む音声警報15152によって報告される。 In FIG. 15AD, the movement of virtual object 11002 is reported by voice alert 15152, including the announcement "The chair is 100 percent visible and occupies 30 percent of the screen," as shown in 15154.

図15AEにおいて、接触15156による入力(例えば、矢印15158で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15AE, an input by contact 15156 (eg, a swipe to the right along the path indicated by arrow 15158) is detected. In response to this input, the selected action proceeds to the next action.

図15AFにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を左に移動させる動作であることを示すために)左方横移動制御15160が表示される。音声警報15162は、15164で示されるように、「選択済み:左に移動する」というアナウンスを含む。接触15166による入力(例えば、矢印15168で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15AF, the left lateral movement control 15160 is displayed (for example, to show that the currently selected operation is an operation to move the virtual object 11002 to the left). The voice alert 15162 includes the announcement "selected: move to the left", as indicated by 15164. An input by contact 15166 (eg, a rightward swipe along the path indicated by arrow 15168) is detected. In response to this input, the selected action proceeds to the next action.

図15AGにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を時計回りに回転させる動作であることを示すために)時計回り回転制御15170が表示される。音声警報15172は、15174で示すように、「選択済み:時計回りに回転する」というアナウンスを含む。接触15176による入力(例えば、矢印15178で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15AG, the clockwise rotation control 15170 is displayed (for example, to show that the currently selected action is the action of rotating the virtual object 11002 clockwise). The voice alarm 15172 includes the announcement "selected: rotate clockwise", as indicated by 15174. An input by contact 15176 (eg, a rightward swipe along the path indicated by arrow 15178) is detected. In response to this input, the selected action proceeds to the next action.

図15AHにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を時計回りに回転させる動作であることを示すために)反時計回り回転制御15180が表示される。音声警報15182は、15184で示すように、「選択済み:反時計回りに回転する」というアナウンスを含む。接触15186による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、図15AIで示すように、仮想オブジェクト11002は反時計回りに回転させられる)。 In FIG. 15AH, the counterclockwise rotation control 15180 is displayed (for example, to show that the currently selected action is the action of rotating the virtual object 11002 clockwise). The voice alarm 15182 includes the announcement "selected: rotate counterclockwise", as indicated by 15184. Input by contact 15186 (eg, double tap input) is detected. In response to this input, the selected action is performed (eg, virtual object 1102 is rotated counterclockwise, as shown in FIG. 15AI).

図15AIにおいて、音声警報15190は、「椅子は反時計回りに5度だけ回転した」というアナウンスを含む。15164で示すように、椅子は、現在、スクリーンに対してゼロ度だけ回転している。 In FIG. 15AI, the voice alarm 15190 includes an announcement that "the chair has rotated counterclockwise by 5 degrees". As shown in 15164, the chair is currently rotated by zero degrees with respect to the screen.

一部の実施形態では、オブジェクト(例えば、仮想オブジェクト11002)の少なくとも1つの表面(例えば、下側面)で反射が生じる。反射は、デバイス100の1つ以上のカメラによって取り込まれる画像データを使用して生成される。例えば、反射は、1つ以上のカメラの視野6036内で検出される水プレーン(例えば、床面5038)に対応する取り込まれた画像データ(例えば、画像、画像のセット、及び/又は動画)のうちの少なくとも一部に基づく。一部の実施形態では、反射の発生は、(例えば、取り込まれた画像データを仮想の球のモデル上にマッピングすることにより)取り込まれた画像データを含む球状モデルを生成することを含む。 In some embodiments, reflections occur on at least one surface (eg, the bottom surface) of the object (eg, virtual object 11002). Reflections are generated using image data captured by one or more cameras in device 100. For example, the reflection is of captured image data (eg, an image, a set of images, and / or moving images) corresponding to a water plane (eg, floor surface 5038) detected within the field of view 6036 of one or more cameras. Based on at least some of them. In some embodiments, the occurrence of reflection comprises generating a spherical model containing the captured image data (eg, by mapping the captured image data onto a model of a virtual sphere).

一部の実施形態では、オブジェクトの表面で生じる反射は、(例えば、プレーンにより近い表面の一部が、プレーンからより遠い表面の一部よりも大きい反射率の大きさを有するように)反射勾配を含む。一部の実施形態では、オブジェクトの表面で生じる反射の反射率の大きさは、表面に対応するテクスチャの反射率値に基づく。例えば、表面の非反射部では反射が生じない。 In some embodiments, the reflections that occur on the surface of the object have a reflectance gradient (eg, such that some of the surfaces closer to the plane have greater reflectance than some of the surfaces farther from the plane). including. In some embodiments, the magnitude of the reflectance of the reflections that occur on the surface of the object is based on the reflectance value of the texture corresponding to the surface. For example, no reflection occurs in the non-reflective portion of the surface.

一部の実施形態では、反射は、経時的に調整される。例えば、反射は、オブジェクトを移動及び/又はスケーリングする入力を受信したときに調整される(例えば、オブジェクトが移動するとき、オブジェクトの反射は、オブジェクトに対応する位置にあるプレーンの一部を反射するように調整される)。一部の実施形態では、反射は、オブジェクトが(例えば、z軸周りに)回転しているときには調整されない。 In some embodiments, the reflex is adjusted over time. For example, the reflection is adjusted when it receives an input that moves and / or scales the object (eg, when the object moves, the reflection of the object reflects part of the plane at the position corresponding to the object. Adjusted to). In some embodiments, the reflection is not adjusted when the object is rotating (eg, about the z-axis).

一部の実施形態では、(例えば、オブジェクトに対応するカメラの視野6036内で検出されるプレーン上の)決定された位置でオブジェクトを表示する前に、オブジェクトの表面上で反射は生じない。例えば、(例えば、図11G~11Hに関して説明するように)オブジェクトの半透明表現が表示されるとき、及び/又は(例えば、図12B~12Iに関して説明するように)較正が実行されているとき、オブジェクトの表面上で反射は生じない。 In some embodiments, no reflection occurs on the surface of the object prior to displaying the object at a determined position (eg, on a plane detected within the field of view 6036 of the camera corresponding to the object). For example, when a translucent representation of an object is displayed (eg, as described for FIGS. 11G-11H) and / or when calibration is being performed (eg, as described for FIGS. 12B-12I). There is no reflection on the surface of the object.

一部の実施形態では、オブジェクトの反射は、カメラの視野6036内で検出される1つ以上のプレーン上で生じる。一部の実施形態では、オブジェクトの反射は、カメラの視野6036内で生じない。 In some embodiments, object reflections occur on one or more planes detected within the camera's field of view 6036. In some embodiments, object reflection does not occur within the camera's field of view 6036.

図16A~16Gは、オブジェクト配置基準が満たされているか否かによって異なる視覚特性を用いる1つ以上のカメラの視野を含むユーザーインターフェースに仮想オブジェクトを表示する方法16000を示すフロー図である。方法16000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)と、1つ以上の入力デバイス(例えば、タッチ感知面、又は表示生成コンポーネントとタッチ感知面の両方としての役割を果たすタッチスクリーンディスプレイ)と、1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面とは反対のデバイスの側の1つ以上の背面カメラ)とを有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)で実行される。一部の実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。一部の実施形態では、ディスプレイはタッチ感知面から分離している。方法16000の一部の動作は任意選択で組み合わされ、及び/又は一部の動作の順序は任意選択で変更される。 16A-16G are flow diagrams illustrating a method 16000 for displaying a virtual object in a user interface that includes the field of view of one or more cameras with different visual characteristics depending on whether the object placement criteria are met. Method 16000 serves as a display generation component (eg, a display, a projector, a heads-up display, etc.) and one or more input devices (eg, a touch-sensitive surface, or both a display-generating component and a touch-sensitive surface). An electronic device (eg, device 300 of FIG. 3 or FIG. 1A) having one or more cameras (eg, one or more rear cameras on the side of the device opposite the display and touch-sensitive surface). It is executed by the portable multifunctional device 100). In some embodiments, the display is a touch screen display with a touch sensitive surface on or embedded in the display. In some embodiments, the display is separated from the touch sensitive surface. Some actions of method 16000 are optionally combined and / or the order of some actions is changed arbitrarily.

デバイスは、(例えば、仮想オブジェクトの移動可能な表現を含むステージングユーザーインターフェースが表示されている間に、及びカメラの視野が表示される前に)1つ以上のカメラの視野のうちの少なくとも一部を含む第1のユーザーインターフェース領域(例えば、拡張現実ビューインターフェース)に仮想オブジェクト(例えば、三次元モデルの表現)を表示する要求を受信する(16002)(例えば、この要求は、タッチスクリーンディスプレイ上の仮想オブジェクトの表現上で検出される接触による入力であり、あるいはこの接触は、仮想オブジェクトの表現と同時に表示され、第1の接触により引き起こされるときにARビューの表示をトリガするように構成されているアフォーダンス(例えば、「ARビュー」又は「ワールドビュー」ボタン上のタップ)で検出される)。例えば、図11Fに関して説明したように、要求は、1つ以上のカメラの視野6036内に仮想オブジェクト11002を表示するための入力である。 The device is at least a portion of the field of view of one or more cameras (eg, while a staging user interface containing a mobile representation of a virtual object is displayed, and before the field of view of the camera is displayed). Receives a request to display a virtual object (eg, a representation of a three-dimensional model) in a first user interface area (eg, an augmented reality view interface) that includes (16002) (eg, this request is on a touch screen display). A contact input detected on the representation of the virtual object, or this contact is displayed at the same time as the representation of the virtual object and is configured to trigger the display of the AR view when triggered by the first contact. Affordable (eg detected by a tap on the "AR View" or "World View" buttons). For example, as described with respect to FIG. 11F, the request is an input for displaying the virtual object 11002 within the field of view 6036 of one or more cameras.

第1のユーザーインターフェース領域に仮想オブジェクトを表示する要求(例えば、デバイスの周囲の物理的環境のビューに仮想オブジェクトを表示する要求)に応答して、デバイスは、表示生成コンポーネントを介して、第1のユーザーインターフェース領域に含まれる1つ以上のカメラの視野のうちの少なくとも一部の上に仮想オブジェクトの表現を表示する(16004)(例えば、1つ以上のカメラの視野は、第1のユーザーインターフェースの領域に仮想オブジェクトを表示する要求に応答して表示される)ものであり、1つ以上のカメラの視野は、1つ以上のカメラが位置する物理的環境のビューである。例えば、図11Gに関して説明したように、仮想オブジェクト11002は、1つ以上のカメラが位置する物理的環境5002のビューである1つ以上のカメラの視野6036内に表示される。仮想オブジェクトの表現を表示することは、オブジェクト配置基準が満たされるために、1つ以上のカメラの視野内で仮想オブジェクトの配置位置(例えば、プレーン)が識別されることを必要とするオブジェクトの配置基準が満たされていないとの判定に応じて(例えば、第1のユーザーインターフェース領域内で1つ以上のカメラの視野に対して仮想オブジェクトを配置する位置又はプレーンでデバイスが識別されていない(例えば、プレーン識別がまだ進行中であり、又はプレーンを識別するのに十分な画像データがない)とき、オブジェクト配置基準は満たされていない)、第1の1組の視覚特性(例えば、第1の半透明レベル、又は第1の輝度レベル、又は第1の彩度レベル等)を伴うと共に、物理的環境の一部が1つ以上のカメラの視野内に表示されることから独立している第1の向きを伴って、仮想オブジェクトの表現を表示することを含んでおり、例えば、物理的環境(例えば、ステージングビューに設定された向き)から独立していると共に、カメラの視野内で生じる変化(例えば、物理的環境に対するデバイスの移動による変化)から独立して、仮想オブジェクトは、所定のプレーンに相対的である向きでカメラの視野の上で浮いている。例えば、図11G~11Hでは、仮想オブジェクト11002についての配置位置がカメラの視野6036内で識別されていないので、仮想オブジェクト11002の半透明バージョンが表示される。(図11G~11Hに示すように)デバイスが移動するとき、仮想オブジェクト11002の向きは変化しない。一部の実施形態では、オブジェクト配置基準は、視野が安定しており、物理的環境の静止画を提供するという要件を含む(例えば、カメラは少なくとも閾値時間中に閾値量よりも少なく移動し、及び/又は要求が受信されて以来少なくとも所定の時間が経過しており、及び/又は十分に前のデバイスの移動でプレーン検出のためにカメラが較正されている。オブジェクト配置基準が満たされている(例えば、第1のユーザーインターフェース領域内に、1つ以上のカメラの視野に対して仮想オブジェクトを配置する位置又は面をデバイスが識別していないときに、オブジェクト配置基準は満たされている)との判定に応じて、デバイスは、第1の1組の視覚特性とは異なるの(例えば、第2の半透明性レベル、又は第2の輝度レベル、又は第2の彩度レベル等で)第2の1組の視覚特性を有すると共に、1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きを有する、仮想オブジェクトの表現を表示する。例えば、図11Iでは、仮想オブジェクト11002の配置位置は、カメラの視野6036内で識別されているので(例えば、物理的環境5002内の床面5038に対応するプレーン)、仮想オブジェクト11002の非半透明バージョンが表示される。仮想オブジェクト11002の向き(例えば、タッチスクリーンディスプレイ112上の位置)は、図11Hに示す第1の向きから図11Iに示す第2の向きへ変化している。(図11Iから図11Jに示すように)デバイスが移動するとき、仮想オブジェクト11002の向きは、(仮想オブジェクト11002が物理的環境5002に対して一定の向きで現在表示されているため)変化する。オブジェクト配置基準が満たされるかどうかに応じて、仮想オブジェクトを第1の1組の視覚特性又は第2の1組の視覚特性と共に表示することにより、(例えば、仮想オブジェクトを表示する要求が受信されているが、1つ以上のカメラの視野内に仮想オブジェクトを配置するために追加の時間及び/又は較正情報が必要されていることを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きでオブジェクトを配置する前に、適切な入力を提供し、仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In response to a request to display a virtual object in the first user interface area (eg, a request to display the virtual object in a view of the physical environment around the device), the device first, through the display generation component. Display a representation of a virtual object on at least a portion of the field of view of one or more cameras contained in the user interface area of (16004) (eg, the field of view of one or more cameras is the first user interface. It is displayed in response to a request to display a virtual object in the area of), and the field of view of one or more cameras is a view of the physical environment in which the one or more cameras are located. For example, as described with respect to FIG. 11G, the virtual object 11002 is displayed within the field of view 6036 of one or more cameras, which is a view of the physical environment 5002 in which the one or more cameras are located. Displaying a representation of a virtual object requires that the placement position (eg, plane) of the virtual object be identified within the field of view of one or more cameras in order for the object placement criteria to be met. The device is not identified by the position or plane in which the virtual object is placed with respect to the field of view of one or more cameras in the first user interface area, depending on the determination that the criteria are not met (eg,). , Object placement criteria are not met when plane identification is still in progress or there is not enough image data to identify the plane), a first set of visual properties (eg, first). A translucent level, or a first brightness level, a first saturation level, etc.), and independent of the fact that part of the physical environment is visible within the field of one or more cameras. Includes displaying a representation of a virtual object with one orientation, eg, independent of the physical environment (eg, the orientation set in the staging view), and changes that occur within the field of the camera. Independent of (eg, changes due to movement of the device with respect to the physical environment), the virtual object floats in the camera's field of view in an orientation relative to a given plane. For example, in FIGS. 11G-11H, the placement position for the virtual object 11002 is not identified within the field of view 6036 of the camera, so a translucent version of the virtual object 11002 is displayed. As the device moves (as shown in FIGS. 11G-11H), the orientation of the virtual object 11002 does not change. In some embodiments, the object placement criteria include the requirement that the field of view be stable and provide a still image of the physical environment (eg, the camera moves less than the threshold amount during at least the threshold time). And / or at least a given amount of time has passed since the request was received, and / or the camera has been calibrated for plane detection with a move of the device well in front. Object placement criteria are met. (For example, the object placement criteria are met when the device does not identify a position or surface in the first user interface area where the virtual object will be placed with respect to the field of view of one or more cameras). Depending on the determination of, the device is different from the first set of visual characteristics (eg, at a second translucency level, a second brightness level, a second saturation level, etc.). Displaying, for example, a representation of a virtual object having a set of two visual characteristics and having a second orientation corresponding to a plane in a physical environment detected within the field of view of one or more cameras. In 11I, the placement position of the virtual object 11002 is identified within the field of view 6036 of the camera (eg, the plane corresponding to the floor surface 5038 in the physical environment 5002), so that the non-translucent version of the virtual object 1102 is displayed. The orientation of the virtual object 11002 (eg, the position on the touch screen display 112) changes from the first orientation shown in FIG. 11H to the second orientation shown in FIG. 11I (FIGS. 11I to 11J). As the device moves (as shown in), the orientation of the virtual object 11002 changes (because the virtual object 11002 is currently displayed in a fixed orientation with respect to the physical environment 5002). The object placement criteria are met. Depending on whether or not the virtual object is displayed with a first set of visual characteristics or a second set of visual characteristics (eg, a request to display the virtual object has been received, but one. Provide visual feedback to the user (to show that additional time and / or calibration information is needed to place the virtual object in the field of view of the camera above). User with improved visual feedback. By providing to (for example, before placing the object in the second orientation corresponding to the plane, you provide the appropriate input and prevent you from using the input to manipulate the virtual object. Device power usage by improving device usability (by assisting the battery), making the user device interface more efficient, and allowing users to use the device faster and more efficiently. And improve battery life.

一部の実施形態では、デバイスは、仮想オブジェクトの表現が第1の1組の視覚特性及び第1の向きを伴って表示されている間に、オブジェクト配置基準が満たされていることを検出する(16006)(例えば、仮想オブジェクトが、デバイスの周囲の物理的環境のビューの上に半透明状態でサスペンドされている間に、仮想オブジェクトを配置するプレーンが識別される)。オブジェクト配置基準の検出を開始するのに更なるユーザー入力を必要とせずに、仮想オブジェクトが第1の1組の視覚特性を伴って(例えば、半透明状態で)表示されている間に、オブジェクト配置基準が満たされていることを検出することで、オブジェクト配置に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device detects that the object placement criteria are met while the representation of the virtual object is displayed with a first set of visual characteristics and a first orientation. (16006) (eg, the plane on which the virtual object is placed is identified while the virtual object is suspended in a translucent state over a view of the physical environment around the device). An object while the virtual object is displayed with a first set of visual characteristics (eg, in a translucent state) without requiring further user input to initiate detection of the object placement criteria. By detecting that the placement criteria are met, the number of inputs required for object placement is reduced. By reducing the number of inputs required to perform the operation, it improves the usability of the device, makes the user device interface more efficient, and allows the user to use the device faster and more efficiently. By doing so, the power consumption of the device is reduced and the battery life is improved.

一部の実施形態では、オブジェクトの配置基準が満たされていることの検出に応答して、デバイスは、表示生成コンポーネントを介して、第1の向きから第2の向きへ移る(例えば、回転する、スケーリングする、並進する、及び/又は上記の組合せ)と共に第1の1組の視覚特性を有することから第2の1組の視覚特性を有することへ変化する仮想オブジェクトの表現を示すアニメーション化された遷移を表示する(16008)。例えば、仮想オブジェクトを配置するプレーンがカメラの視野内で識別されると、仮想オブジェクトはその向き、サイズ、半透明性(等)を可視的に調整してそのプレーン上に配置される。(例えば、第1のユーザーインターフェース内で仮想オブジェクトの向きを変えるために更なるユーザー入力を必要とすることなく)第1の向きから第2の向きへアニメーション化された遷移を表示することで、オブジェクト配置に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device moves from a first orientation to a second orientation (eg, rotates) via the display generation component in response to detection that the placement criteria of the object are met. Animated showing the representation of a virtual object that changes from having a first set of visual traits to having a second set of visual traits) with, scaling, translation, and / or the above combinations). The transition is displayed (16008). For example, when the plane on which the virtual object is placed is identified in the field of view of the camera, the virtual object is placed on the plane by visually adjusting its orientation, size, translucency (etc.). By displaying an animated transition from the first orientation to the second orientation (for example, without requiring further user input to orient the virtual object within the first user interface). Reduce the number of inputs required for object placement. By reducing the number of inputs required to perform the operation, it improves the usability of the device, makes the user device interface more efficient, and allows the user to use the device faster and more efficiently. By doing so, the power consumption of the device is reduced and the battery life is improved.

一部の実施形態では、オブジェクト配置基準が満たされていることの検出(16010)は、1つ以上のカメラの視野内で平面が識別されたことの検出、(例えば、カメラの視野内の物理的環境の実質的に静止したビューに導く)少なくとも閾値時間にわたるデバイスと物理的環境との間の閾値移動量未満の検出、及び第1のユーザーインターフェース領域に仮想オブジェクトを表示させる要求を受信してから少なくとも所定の時間が経過したことの検出のうちの1つ以上を含む。(例えば、プレーンを検出するユーザー入力を必要とせずに1つ以上のカメラの視野内でプレーンを検出することによって)オブジェクト配置基準が満たされていることを検出することで、オブジェクト配置に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the detection that the object placement criteria are met (16010) is the detection that a plane has been identified in the field of view of one or more cameras (eg, physics in the field of view of the camera). Receives detection of less than the threshold movement between the device and the physical environment for at least a threshold time (leading to a substantially stationary view of the environment), and a request to display a virtual object in the first user interface area. Includes at least one or more of the detections that a predetermined time has elapsed from. Required for object placement by detecting that the object placement criteria are met (eg, by detecting the plane in the field of view of one or more cameras without the need for user input to detect the plane). Reduce the number of inputs. By reducing the number of inputs required to perform the operation, it improves the usability of the device, makes the user device interface more efficient, and allows the user to use the device faster and more efficiently. By doing so, the power consumption of the device is reduced and the battery life is improved.

一部の実施形態では、デバイスは、1つ以上のカメラの視野内で取り込まれた物理的環境の第1の部分(例えば、物理的環境の第1の部分は、半透明の仮想オブジェクトを通じてユーザーに見える)にわたって、仮想オブジェクトの表現が、第1の1組の視覚特性及び第1の向きを伴って表示される間に(例えば、仮想オブジェクトが、デバイスの周囲の物理的環境のビューの上に半透明状態でサスペンドされている間に)1つ以上のカメラの第1の移動(例えば、デバイスの周囲の物理的環境に対するデバイスの回転及び/又は並進)を検出する(16012)。例えば、図11G~11Hにおいて、1つ以上のカメラは、仮想オブジェクト11002の半透明表現が表示されている間、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)移動する。カメラの視野6036内に取り込まれ、ユーザーインターフェースに表示される物理的環境の壁及びテーブルは、半透明性の仮想オブジェクト11002を通して見える。1つ以上のカメラの第1の移動を検出することに応答して、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境の第2の部分にわたって第1の1組の視覚特性及び第1の向きを伴って仮想オブジェクトの表現を表示し(16014)、ただし、物理的環境の第2の部分は、物理的環境の第1の部分とは異なる。例えば、カメラの視野内に示される物理的環境の上で浮かんでいる仮想オブジェクトの半透明バージョンが表示されている間に、カメラの視野内の物理的環境のビューは、デバイスが物理的環境に対して移動するときに、(例えば、半透明性の仮想オブジェクトの背後で)シフト及びスケーリングする。したがって、デバイスの移動中、仮想オブジェクトの半透明バージョンは、カメラの視野内の物理的環境のビューの並進及びスケーリングの結果として、視野内で表される物理的環境の異なる部分の上に重ね合わされる。例えば、図11Hにおいて、カメラの視野6036は、図11Gに表示される物理的環境5002の第1の部分とは異なるの物理的環境5002の第2の部分を表示する。図11G~11Hにおいて1つ以上のカメラの移動が生じるときに、仮想オブジェクト11002の半透明表現の向きは変化しない。1つ以上のカメラの移動の検出に応答して第1の向きで仮想オブジェクトを表示することにより、(例えば、1つ以上のカメラの視野内で取り込まれた物理的環境の一部が1つ以上のカメラの移動に応じて変化するときに、仮想オブジェクトは物理的環境に対して一定の位置にまだ配置されておらず、したがって移動しないことを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きでオブジェクトを配置する前に、仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device is a first part of the physical environment captured within the field of view of one or more cameras (eg, the first part of the physical environment is the user through a translucent virtual object. While the representation of the virtual object is displayed with a first set of visual characteristics and a first orientation (eg, the virtual object is on a view of the physical environment around the device). Detects a first movement of one or more cameras (eg, rotation and / or translation of the device relative to the physical environment surrounding the device) (while suspended in a translucent state) (16012). For example, in FIGS. 11G-11H, one or more cameras are displayed while the translucent representation of virtual object 11002 is displayed (eg, as indicated by the altered position of table 5004 within the camera's field of view 6036). Moving. The walls and tables of the physical environment captured within the camera's field of view 6036 and displayed in the user interface are visible through the translucent virtual object 11002. In response to detecting the first movement of one or more cameras, the device has a first set of visual characteristics across a second part of the physical environment that is captured within the field of view of the one or more cameras. And display a representation of the virtual object with a first orientation (16014), but the second part of the physical environment is different from the first part of the physical environment. For example, while a translucent version of a virtual object floating above the physical environment shown in the camera's field of view is displayed, a view of the physical environment in the camera's field of view allows the device to be in the physical environment. Shift and scale (eg behind a translucent virtual object) as you move against. Therefore, while the device is moving, the translucent version of the virtual object is superimposed on different parts of the physical environment represented in the field of view as a result of translation and scaling of the view of the physical environment in the field of view of the camera. To. For example, in FIG. 11H, the field of view 6036 of the camera displays a second portion of the physical environment 5002 that is different from the first portion of the physical environment 5002 displayed in FIG. 11G. When one or more cameras move in FIGS. 11G to 11H, the orientation of the translucent representation of the virtual object 11002 does not change. By displaying the virtual object in the first orientation in response to the detection of movement of one or more cameras (eg, one part of the physical environment captured within the field of view of one or more cameras). Provides visual feedback to the user (to show that the virtual object is not yet in place with respect to the physical environment and therefore does not move) as it changes in response to the camera movement above. .. By providing the user with improved visual feedback (for example, helping the user avoid using input that manipulates the virtual object before placing the object in the second orientation corresponding to the plane. By improving the usability of the device, making the user device interface more efficient, and reducing the power consumption of the device by allowing users to use the device faster and more efficiently. , Improve battery life.

一部の実施形態では、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境の第3の部分(例えば、物理的環境の第3の部分(例えば、仮想オブジェクトを支持する検出されたプレーンの一部)の直接ビューは、仮想オブジェクトによって遮られる)にわたって、仮想オブジェクトの表現が第2の1組の視覚特性及び第2の向きを伴って表示される間に(例えば、オブジェクト配置基準が満たされ、仮想オブジェクトがカメラの視野内の物理的環境内で検出されるプレーン上に配置された後に)、1つ以上のカメラの第2の移動(例えば、デバイスの周囲の物理的環境に対するデバイスの回転及び/又は並進)を検出する(16016)。例えば、図11I~11Jにおいて、1つ以上のカメラは、仮想オブジェクト11002の非半透明表現が表示されている間に、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)移動する。デバイスの第2の移動の検出に応答して、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境がデバイスの第2の移動に応じて移動する(例えば、シフトする及びスケーリングする)間、1つ以上のカメラの視野内に取り込まれる物理的環境の第3の部分にわたって第2の1組の視覚特性及び第2の向きを伴った仮想オブジェクトの表現の表示を維持し(16018)、第2の向きは、1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応し続ける。例えば、仮想オブジェクトの非半透明性バージョンが、カメラの視野内で示される物理的環境内で検出されるプレーン上の静止位置でドロップされた後、仮想オブジェクトの位置及び向きは、カメラの視野内の物理的環境に対して固定され、仮想オブジェクトは、デバイスが物理的環境に対して移動するときにカメラの視野内の物理的環境と共にシフト及びスケーリングする(例えば、仮想オブジェクト11002の非半透明表現は、図11I~11J中で1つ以上のカメラの移動が起こるときに、物理的環境5002内の床面に対してある向きで固定されたままである)。1つ以上のカメラの移動の検出に応答して第2の向きで仮想オブジェクトの表示を維持することにより、(例えば、仮想オブジェクトは、物理的環境に対して一定の位置に配置され、したがって、1つ以上のカメラの移動に応じて、1つ以上のカメラの視野内に取り込まれる物理的環境の一部が変化するときに移動することを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きで配置された仮想オブジェクトについての適切な入力を提供するようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device is detected in favor of a third part of the physical environment (eg, a third part of the physical environment (eg, a virtual object) that is captured within the field of view of one or more cameras. A direct view (part of the plane) is obstructed by the virtual object), while the representation of the virtual object is displayed with a second set of visual characteristics and a second orientation (eg, object placement). A second move of one or more cameras (eg, the physical environment around the device) after the criteria are met and the virtual object is placed on a plane that is detected within the physical environment within the field of view of the camera. (Rotation and / or translation of the device with respect to) is detected (16016). For example, in FIGS. 11I-11J, one or more cameras will be indicated (eg, by an altered position of table 5004 within the field of view 6036 of the camera) while the non-translucent representation of virtual object 11002 is displayed. To) move. In response to the detection of a second movement of the device, the device moves (eg, shifts and scales) the physical environment captured within the field of view of one or more cameras in response to the second movement of the device. ) While maintaining the representation of the virtual object representation with a second set of visual characteristics and a second orientation across a third part of the physical environment captured within the field of view of one or more cameras (16018). ), The second orientation continues to correspond to planes in the physical environment detected within the field of view of one or more cameras. For example, after a non-translucent version of a virtual object is dropped at a stationary position on a plane found in the physical environment shown in the camera's field of view, the position and orientation of the virtual object is in the camera's field of view. Fixed to the physical environment of the virtual object, the virtual object shifts and scales with the physical environment in the camera's field of view as the device moves relative to the physical environment (eg, a non-translucent representation of the virtual object 11002). Remains fixed in a certain orientation with respect to the floor surface in the physical environment 5002 when the movement of one or more cameras occurs in FIGS. 11I-11J). By maintaining the display of the virtual object in a second orientation in response to the detection of one or more camera movements (eg, the virtual object is positioned in a fixed position with respect to the physical environment and therefore). Provide visual feedback to the user (to show that as part of the physical environment captured within the field of view of one or more cameras changes as the movement of one or more cameras changes). By providing the user with improved visual feedback (eg, by assisting the user in providing appropriate input for a virtual object placed in a second orientation corresponding to the plane). Reduce device power usage and improve battery life by improving usability, making the user device interface more efficient, and allowing users to use the device faster and more efficiently. ..

一部の実施形態では、オブジェクト配置基準が満たされている(例えば、オブジェクト配置基準は、第1のユーザーインターフェース領域内の1つ以上のカメラの視野に対して仮想オブジェクトを配置する位置又はプレーンでデバイスが識別されていないときに満たされる)との判定に応じて、デバイスは、(例えば、下げられた半透明性レベル、又はより高い輝度レベル、又はより高い彩度レベル等で)第2の1組の視覚特性を有すると共に1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きを有する仮想オブジェクトの表現を表示すると共に、(例えば、デバイスの1つ以上の触知出力発生器を用いて)触知出力を生成する(16020)(例えば、触知出力の発生は、仮想オブジェクトの非半透明の外観への遷移の完了、並びに物理的環境内で検出されるプレーン上のドロップ位置に在る仮想オブジェクトの回転及び並進の完了と同期される)。例えば、図11Iに示すように、仮想オブジェクト11002に対応するプレーン(例えば、床面5038)に付された仮想オブジェクト11002の非半透明表現を表示すると共に、11010で示す触知出力が生成される。オブジェクト配置基準が満たされているとの判定に応じて、触知出力を生成することにより、(例えば、仮想オブジェクトを配置する動作がうまく実行されたことを示す)改善された触覚的フィードバックをユーザーに提供する。改善されたフィードバックをユーザーに提供することにより、(例えば、ユーザーインターフェースを表示情報で乱すことなくオブジェクト配置基準が満たされたことをユーザーが知覚することを可能にする感覚情報を提供することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the object placement criteria are met (eg, the object placement criteria are at positions or planes where the virtual object is placed with respect to the field of view of one or more cameras within the first user interface area. Depending on the determination (satisfied when the device is not identified), the device will have a second (eg, at a reduced translucency level, or a higher brightness level, or a higher saturation level, etc.). It displays a representation of a virtual object that has a set of visual characteristics and a second orientation that corresponds to a plane in the physical environment that is detected within the field of view of one or more cameras (eg, one of the devices). Generate a tactile output (using one or more tactile output generators) (16020) (eg, the generation of a tactile output completes the transition of the virtual object to a non-transparent appearance, as well as within the physical environment. Synchronized with the completion of rotation and translation of the virtual object at the drop position on the plane detected by). For example, as shown in FIG. 11I, the non-translucent representation of the virtual object 11002 attached to the plane (eg, floor 5038) corresponding to the virtual object 11002 is displayed and the tactile output shown by 11010 is generated. .. By generating a tactile output in response to the determination that the object placement criteria are met, the user provides improved tactile feedback (eg, indicating that the placement of the virtual object was successful). Provide to. By providing the user with improved feedback (eg, by providing sensory information that allows the user to perceive that the object placement criteria have been met without disturbing the user interface with display information). Reduce device power usage and extend battery life by improving device usability, making user device interfaces more efficient, and allowing users to use the device faster and more efficiently. Improve.

一部の実施形態では、第2の1組の視覚特性を伴うと共に1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きを伴った仮想オブジェクトの表現を表示している間に、デバイスは、1つ以上のカメラの視野内で検出される物理的環境内のプレーンの少なくとも位置又は向きに関する更新を受信する(16022)(例えば、更新されたプレーンの位置及び向きは、最初のプレーン検出結果を使用して仮想オブジェクトを配置した後に蓄積された追加データ、又はより時間がかかる計算方法(例えば、より少ない近似等)に基づくより正確な計算の結果である)。1つ以上のカメラの視野内で検出される物理的環境内のプレーンの少なくとも位置又は向きに関する更新の受信に応答して、デバイスは、更新に応じて仮想オブジェクトの表現の少なくとも位置及び/又は向きを調整する(例えば、更新されたプレーンにより近い仮想オブジェクトを徐々に移動(例えば、並進及び回転)させる)(16024)。(例えば、プレーンに対して仮想オブジェクトを配置するユーザー入力を必要とせずに)物理的環境内のプレーンに関する更新の受信に応答して仮想オブジェクトの位置及び/又は向きを調整することにより、仮想オブジェクトの調整に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, a representation of a virtual object with a second set of visual characteristics and a second orientation corresponding to a plane in the physical environment detected within the field of view of one or more cameras. While displaying, the device receives updates regarding at least the position or orientation of planes in the physical environment detected within the field of view of one or more cameras (16022) (eg, of the updated planes). Positions and orientations are the result of additional data accumulated after placing the virtual object using the initial plane detection results, or more accurate calculations based on longer calculation methods (eg, less approximation). be). In response to receiving an update for at least the position or orientation of a plane in the physical environment detected within the field of view of one or more cameras, the device responds to the update with at least the position and / or orientation of the representation of the virtual object. (Eg, gradually move (eg, translate and rotate) virtual objects closer to the updated plane) (16024). A virtual object by adjusting the position and / or orientation of the virtual object in response to receiving updates for the plane in the physical environment (eg, without requiring user input to place the virtual object on the plane). Reduce the number of inputs required to adjust. By reducing the number of inputs required to perform the operation, it improves the usability of the device, makes the user device interface more efficient, and allows the user to use the device faster and more efficiently. By doing so, the power consumption of the device is reduced and the battery life is improved.

一部の実施形態では、第1の1組の視覚特性は、第1のサイズと、第1の半透明レベルとを含み(16026)(例えば、ARビューの中におろされてしまう前、オブジェクトは、ディスプレイに対する一定のサイズと、一定の高い半透明レベルとを有し)、第2の1組の視覚特性は、第1のサイズとは異なるの第2のサイズ(例えば、ARビューにおろされると、オブジェクトは、物理的環境内のサイズ及びドロップ位置に関してシミュレートされた物理的サイズで表示される)と、第1の半透明レベル(例えば、オブジェクトは、ARビューにおいてもはや半透明でない)よりも低い(例えばそれよりも不透明な)第2の半透明レベルとを含む(16028)。例えば、図11Hにおいて、仮想オブジェクト11002の半透明表現は第1のサイズで示され、図11Iにおいて、仮想オブジェクト11004の非半透明表現は第2の(より小さい)サイズで示される。オブジェクト配置基準が満たされたか否かに応じて、第1のサイズ及び第1の半透明レベル、又は第2のサイズ及び第2の半透明レベルで、仮想オブジェクトを表示することにより、(例えば、仮想オブジェクトを表示する要求が受信されているが、1つ以上のカメラの視野内に仮想オブジェクトを配置するために追加の時間及び/又は較正情報が必要とされていることを示すために)ユーザーへの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、適切な入力を提供し、プレーンに対応する第2の向きでオブジェクトを配置する前に仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the first set of visual properties comprises a first size and a first translucency level (16026) (eg, an object before being dropped into an AR view). Has a constant size for the display and a constant high translucency level), the second set of visual characteristics is a second size (eg, AR view) that is different from the first size. The object is then displayed in the physical size simulated for its size and drop location in the physical environment) and the first translucency level (eg, the object is no longer translucent in the AR view). Includes a second translucency level that is lower (eg, more opaque than that) (16028). For example, in FIG. 11H, the translucent representation of virtual object 11002 is shown in first size, and in FIG. 11I, the non-translucent representation of virtual object 11004 is shown in second (smaller) size. By displaying the virtual object at the first size and first translucency level, or the second size and second translucency level, depending on whether the object placement criteria are met (eg, by displaying the virtual object). A request to display a virtual object has been received, but to indicate that additional time and / or calibration information is needed to place the virtual object within the field of view of one or more cameras). Provide visual feedback to. By providing the user with improved visual feedback (for example, to provide the appropriate input and to use the input to manipulate the virtual object before placing the object in the second orientation corresponding to the plane. By improving the usability of the device (by assisting the user to prevent it), making the user device interface more efficient, and by allowing the user to use the device faster and more efficiently. Reduce power consumption and improve battery life.

一部の実施形態では、仮想オブジェクトが、1つ以上のカメラの視野のうちの少なくとも一部を含まないそれぞれのユーザーインターフェース(例えば、ステージングユーザーインターフェース)に表示されている間に(例えば、仮想オブジェクトは、デバイスの物理的環境から独立している向きを有する仮想ステージに対して向けられる)、1つ以上のカメラの視野のうちの少なくとも一部を含む第1のユーザーインターフェース領域(例えば、ARビュー)に仮想オブジェクトを表示する要求が受信される(16030)。第1の向きは、仮想オブジェクトの向きに対応し、一方、仮想オブジェクトは、要求が受信された時点でそれぞれのユーザーインターフェースに表示される。例えば、図11Fに関して説明したように、(カメラの視野を含まない)ステージングユーザーインターフェース6010が表示されている間に、カメラの視野6036を含むユーザーインターフェースに仮想オブジェクト11002を表示する要求が受信される。図11Gの仮想オブジェクト11002の向き(仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェース内に表示される)は、図11Fの仮想オブジェクト11002の向きに対応する(仮想オブジェクト11002は、ステージングユーザーインターフェース6010に表示される)。(予め表示した)インターフェース(例えば、ステージングユーザーインターフェース)に表示されるような仮想オブジェクトの向きに対応する向きで、第1のユーザーインターフェース(例えば、表示される拡張現実ビュー)に仮想オブジェクトを表示することにより、(例えば、ステージングユーザーインターフェースが表示されている間に与えられたオブジェクト操作入力を使用して、ARビュー内にオブジェクトの向きを確立することができることを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きでオブジェクトを配置する前に、適切な入力を提供し、仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, while the virtual object is displayed in each user interface (eg, a staging user interface) that does not contain at least a portion of the field of view of one or more cameras (eg, the virtual object). Is directed to a virtual stage that has an orientation independent of the physical environment of the device) and includes a first user interface area (eg, an AR view) that includes at least a portion of the field of view of one or more cameras. ) Receives a request to display the virtual object (16030). The first orientation corresponds to the orientation of the virtual object, while the virtual object is displayed in their respective user interfaces when the request is received. For example, as described with respect to FIG. 11F, while the staging user interface 6010 (not including the camera field of view) is displayed, a request to display the virtual object 11002 is received in the user interface including the camera field of view 6036. .. The orientation of the virtual object 11002 of FIG. 11G (the virtual object 11002 is displayed in the user interface including the camera field 6036) corresponds to the orientation of the virtual object 11002 of FIG. 11F (the virtual object 11002 is the staging user interface). Displayed at 6010). Display a virtual object in a first user interface (eg, a displayed augmented reality view) with an orientation that corresponds to the orientation of the virtual object as it appears in the (pre-displayed) interface (eg, the staging user interface). By doing so, visual feedback to the user (for example, to show that the orientation of the object in the AR view can be established using the object manipulation input given while the staging user interface is displayed). I will provide a. By providing the user with improved visual feedback (for example, providing the appropriate input and using the input to manipulate the virtual object before placing the object in the second orientation corresponding to the plane). (By assisting the user to prevent), improve the usability of the device, make the user device interface more efficient, and also allow the user to use the device faster and more efficiently. Reduces power consumption and improves battery life.

一部の実施形態では、第1の向きは、所定の向き(例えば、1つ以上のカメラの視野のうちの少なくとも一部を含まないそれぞれのユーザーインターフェース内に最初に仮想オブジェクトを表示するときに仮想オブジェクトが表示される向きなどのデフォルトの向き)に対応する(16032)。第1のユーザーインターフェース(例えば、表示される拡張現実ビュー)に第1の1組の視覚特性及び所定の向きを伴って仮想オブジェクトを表示することで(例えば、ステージングユーザーインターフェースに確立される向きに応じて半透明表現をレンダリングするのではなく、予め生成された仮想オブジェクトの半透明表現を表示することを可能にすることによって)、デバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the first orientation is when the virtual object is first displayed in each user interface that does not contain at least a portion of the field of view of one or more cameras. Corresponds to the default orientation, such as the orientation in which the virtual object is displayed) (16032). By displaying a virtual object in a first user interface (eg, an augmented reality view to be displayed) with a first set of visual characteristics and a given orientation (eg, in the orientation established in the staging user interface). By allowing the translucent representation of pre-generated virtual objects to be displayed instead of rendering the translucent representation accordingly), it reduces device power usage and improves battery life.

一部の実施形態では、第1のユーザーインターフェース領域(例えば、ARビュー)に第2の1組の視覚特性と1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きとを伴って仮想オブジェクトを表示する間に、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境に対して第1のシミュレートされた物理的サイズから第2のシミュレートされた物理的サイズへ(例えば、デフォルトサイズの80%からデフォルトサイズの120%へ、又はその逆へ)(例えば、スケーリング入力(例えば、仮想オブジェクトに向けられるピンチ又はデピンチジェスチャ)の結果として)仮想オブジェクトのシミュレートされた物理的サイズを変更する要求を検出する(16034)。例えば、仮想オブジェクト11002のシミュレートされた物理的サイズを減少させる入力は、図11N~11Pに関して説明したようなピンチジェスチャである。仮想オブジェクトのシミュレートされた物理的サイズを変更する要求の検出に応答して、デバイスは、第1のシミュレートされた物理的サイズから第2のシミュレートされた物理的サイズへ仮想オブジェクトのシミュレートされた物理的サイズの徐々の変化に応じて、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示サイズを徐々に変化させ(16036)(例えば、1つ以上のカメラの視野内で取り込まれる物理的環境の表示サイズが変わらないままである一方で、仮想オブジェクトの表示サイズは拡大又は縮小し)、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示サイズが徐々に変化している間、仮想オブジェクトのシミュレートされた物理的サイズが所定のシミュレートされた物理的サイズ(例えば、デフォルトサイズの100%)に達したとの判定に応じて、デバイスは、仮想オブジェクトのシミュレートされた物理的サイズが所定のシミュレートされた物理的サイズに達したことを示すための触知出力を生成する。例えば、図11N~11Pに関して説明したように、ピンチジェスチャ入力に応答して、仮想オブジェクト11002の表現の表示サイズが徐々に減少する。図11Oにおいて、仮想オブジェクト11002の表現の表示サイズが、仮想オブジェクト11002のサイズ(例えば、図11Iに示すように、1つ以上のカメラの視野6036を含むユーザーインターフェースに当初表示されたような仮想オブジェクト11002のサイズ)の100%に達したときに、11024で示すように触知出力が生成される。仮想オブジェクトのシミュレートされた物理的サイズが所定のシミュレートされた物理的サイズに達したとの判定に応じて触知出力を生成することにより、(例えば、仮想オブジェクトのシミュレートされたサイズを所定サイズに戻す更なる入力が必要とされないことを示すために)ユーザーにフィードバックを提供する。改善された触覚的フィードバックを提供することにより、(例えば、ユーザーインターフェースを表示情報で乱すことなく仮想オブジェクトの所定のシミュレートされた物理的サイズに達したことをユーザーが知覚することを可能にする感覚情報を提供することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the first user interface area (eg, AR view) corresponds to a second set of visual characteristics and planes in the physical environment found within the field of view of one or more cameras. While displaying the virtual object with a second orientation, the device is second from the first simulated physical size to the physical environment captured within the field of view of one or more cameras. The result of a simulated physical size (eg, from 80% of the default size to 120% of the default size, or vice versa) (eg, a scaling input (eg, a pinch or depinch gesture directed at a virtual object)). Detects a request to change the simulated physical size of a virtual object (16034). For example, the input that reduces the simulated physical size of virtual object 11002 is a pinch gesture as described for FIGS. 11N-11P. In response to the detection of a request to change the simulated physical size of a virtual object, the device simulates the virtual object from the first simulated physical size to the second simulated physical size. In response to the gradual change in physical size, the display size of the representation of the virtual object in the first user interface area is gradually changed (16036) (eg, captured within the field of view of one or more cameras). While the display size of the physical environment remains unchanged, the display size of the virtual object is enlarged or reduced), and the display size of the representation of the virtual object in the first user interface area is gradually changing. In the meantime, the device is simulated for a virtual object, depending on the determination that the simulated physical size of the virtual object has reached a given simulated physical size (eg 100% of the default size). Generates a tactile output to indicate that the physical size has reached a given simulated physical size. For example, as described with respect to FIGS. 11N-11P, the display size of the representation of the virtual object 11002 gradually decreases in response to the pinch gesture input. In FIG. 11O, the display size of the representation of the virtual object 11002 is such that it was initially displayed in a user interface that includes the size of the virtual object 11002 (eg, as shown in FIG. 11I, the field of view 6036 of one or more cameras. When it reaches 100% of the size of 11002), a tactile output is generated as shown by 11024. By generating tactile output in response to the determination that the simulated physical size of a virtual object has reached a given simulated physical size (eg, the simulated size of a virtual object). Provide feedback to the user (to show that no further input is required to return to the given size). By providing improved tactile feedback (eg, allowing the user to perceive that a given simulated physical size of a virtual object has been reached without disturbing the user interface with display information. Improves device usability (by providing sensory information) and reduces device power usage and improves battery life by allowing users to use the device faster and more efficiently. do.

いくつかの実施形態では、所定の擬似的な物理サイズとは異なるの仮想オブジェクトの第2の擬似的な物理サイズ(例えば、スケーリング入力(例えば、仮想オブジェクトへ向けられたピンチ又はデピンチジェスチャ)の結果として、デフォルトサイズの120%、又は、デフォルトサイズの80%)において、第1のユーザーインターフェース領域(例えば、ARビュー)内に仮想オブジェクトを表示している間、デバイスは、仮想オブジェクトを所定の擬似的な物理サイズへ戻す要求を検出する(例えば、(仮想オブジェクト、又は、仮想オブジェクトの外部の)タッチスクリーン上におけるタップ又は二重タップ入力を検出する)(16038)。例えば、(図11N~図11Pに関して説明されるように、)ピンチ入力が、仮想オブジェクト11002を小型化した後、(図11Rに関して説明されるように、)仮想オブジェクト11002に対応する場所において、二重タップ入力が検出される。仮想オブジェクトを所定の擬似的な物理サイズへ戻す要求を検出することに応じて、デバイスは、仮想オブジェクトの擬似的な物理サイズの変化にしたがって、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示サイズを、所定の擬似的な物理サイズへ変更する(例えば、表示された仮想オブジェクトのサイズが拡大又は縮小する一方、1つ以上のカメラの視野においてキャプチャされた物理的環境の表示サイズは変わらないままである)(16040)。例えば、図11Rに関して説明される二重タップ入力に応じて、仮想オブジェクト11002のサイズは、図11Iに表示されるような仮想オブジェクト11002のサイズ(1つ以上のカメラの視野6036を含むユーザーインターフェースに元々表示されていたような仮想オブジェクト11002のサイズ)へ戻る。いくつかの実施形態では、仮想オブジェクトの擬似的な物理サイズが、所定の擬似的な物理サイズ(例えば、デフォルトサイズの100%)に達したとの判定にしたがって、デバイスは、仮想オブジェクトの擬似的な物理サイズが、所定の擬似的な物理サイズに達したことを示す触知出力を生成する。(例えば、表示サイズを調節するために提供された入力が、仮想オブジェクトを、所定の擬似的な物理サイズにおいて表示するために十分である場合を推定するようにユーザーへ要求するのではなく、表示サイズを、所定の擬似的な物理サイズへ正確に調節するオプションを提供することによって、)仮想オブジェクトを所定の擬似的な物理サイズへ戻す要求を検出することに応じて、仮想オブジェクトの表示サイズを、所定のサイズへ変更することは、オブジェクトを表示するために必要とされる入力数を、所定のサイズへ低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、さらに、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a second pseudo-physical size of the virtual object that is different from the predetermined pseudo-physical size (eg, a scaling input (eg, a pinch or depinch gesture directed at the virtual object)). As a result, at 120% of the default size, or 80% of the default size), while displaying the virtual object in the first user interface area (eg, AR view), the device determines the virtual object. Detects a request to revert to a pseudo-physical size (eg, detects a tap or double-tap input on a touch screen (eg, a virtual object or outside the virtual object)) (16038). For example, at the location where the pinch input (as described with respect to FIGS. 11N-11P) corresponds to the virtual object 11002 (as described with respect to FIG. 11R) after miniaturizing the virtual object 11002. Heavy tap input is detected. In response to detecting a request to return the virtual object to a given pseudo-physical size, the device follows the change in the pseudo-physical size of the virtual object in the representation of the virtual object in the first user interface area. Change the display size to a given pseudo-physical size (eg, while the size of the displayed virtual object scales up or down, the display size of the physical environment captured in the field of view of one or more cameras changes. It remains absent) (16040). For example, in response to the double tap input described with respect to FIG. 11R, the size of the virtual object 11002 may be the size of the virtual object 11002 as shown in FIG. 11I (to a user interface including a field of view 6036 of one or more cameras). Return to the size of the virtual object 11002 that was originally displayed). In some embodiments, the device determines that the pseudo-physical size of the virtual object has reached a given pseudo-physical size (eg, 100% of the default size). It produces a tactile output indicating that a physical size has reached a given pseudo-physical size. (For example, display rather than asking the user to estimate that the input provided to adjust the display size is sufficient to display the virtual object at a given pseudo-physical size. By providing an option to accurately adjust the size to a given pseudo-physical size), the display size of the virtual object can be increased in response to a request to return the virtual object to a given pseudo-physical size. Resizing to a predetermined size reduces the number of inputs required to display the object to a predetermined size. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、物理的環境に対する1つ以上のカメラのそれぞれの位置及び向き(例えば、オブジェクト配置基準が満たされる時における現在の位置及び向き)にしたがって、第2の1組の視覚特性を用いて第2の仮想オブジェクトの表現の方位を設定するためのプレーンを選択し、プレーンを選択することは、(例えば、デバイスが、物理的環境における第1の方向を示す結果として)1つ以上のカメラの視野においてキャプチャされた物理的環境の第1の部分の上方に仮想オブジェクトの表現が表示された(例えば、半透明のオブジェクトのベースが、物理的環境の第1の部分におけるプレーンとオーバラップしている)場合に、オブジェクト配置基準が満たされているとの判定にしたがって、(例えば、オブジェクトのベースと、ディスプレイ上の第1のプレーンとの間のより大きな接近と、第1のプレーンと、物理ワールドにおける物理的環境の第1の部分との間のより大きな接近にしたがって)1つ以上のカメラの視野における物理的環境において検出された多数のプレーンのうちの第1のプレーンを、第2の1組の視覚特性を用いて仮想オブジェクトの第2の表現の向きを設定するためのプレーンとして選択することと、(例えば、デバイスが、物理的環境における第2の方向を示す結果として)1つ以上のカメラの視野においてキャプチャされた物理的環境の第2の部分の上方に仮想オブジェクトの表現が表示された(例えば、半透明のオブジェクトのベースが、物理的環境の第2の部分におけるプレーンとオーバラップしている)場合に、オブジェクト配置基準が満たされているとの判定にしたがって、(例えば、オブジェクトのベースと、ディスプレイ上の第2のプレーンとの間のより大きな接近、及び、第2のプレーンと、物理ワールドにおける物理的環境の第2の部分との間のより大きな接近にしたがって、)1つ以上のカメラの視野における物理的環境において検出された多数のプレーンのうちの第2のプレーンを、視覚特性の第2の1組を用いて仮想オブジェクトの第2の表現の向きを設定するためのプレーンとして選択することとを含み、物理的環境の第1の部分は、物理的境の第2の部分とは異なり、第1のプレーンは、第2のプレーンとは異なる(16042)。(例えば、検出された多くのプレーンのうちのどれが、仮想オブジェクトが設定されたプレーンであるかを指定するユーザー入力を必要とすることなく、)仮想オブジェクトが設定されるプレーンとして、第1のプレーン又は第2のプレーンを選択することは、プレーンを選択するために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device is a second set according to the position and orientation of each of the one or more cameras with respect to the physical environment (eg, the current position and orientation when the object placement criteria are met). Selecting a plane to orient the representation of the second virtual object using the visual characteristics of, and selecting the plane (eg, as a result of the device pointing to the first direction in the physical environment) ) A representation of the virtual object is displayed above the first part of the physical environment captured in the visual field of one or more cameras (eg, the base of the translucent object is the first part of the physical environment). According to the determination that the object placement criteria are met (eg, a greater approach between the base of the object and the first plane on the display), if it overlaps with the plane in. The first of many planes detected in the physical environment in the visual field of one or more cameras (according to the greater proximity between the first plane and the first part of the physical environment in the physical world). The plane of is selected as the plane for orienting the second representation of the virtual object using a second set of visual characteristics (eg, the device has a second orientation in the physical environment). A representation of the virtual object was displayed above the second part of the physical environment captured in the field of view of one or more cameras (eg, the base of the translucent object is the base of the physical environment). If it overlaps with the plane in the second part (for example, the twist between the base of the object and the second plane on the display) according to the determination that the object placement criteria are met. A large number of detections in the physical environment in the visual field of one or more cameras (according to a large approach and a larger approach between the second plane and the second part of the physical environment in the physical world). The first of the physical environment, including selecting the second plane of the planes as the plane for orienting the second representation of the virtual object using the second set of visual characteristics. The part of is different from the second part of the physical boundary, and the first plane is different from the second plane (16042). The first plane on which a virtual object is set (for example, without requiring user input to specify which of the many discovered planes is the plane on which the virtual object is set). Choosing a plane or a second plane reduces the number of inputs required to select a plane. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、第2の1組の視覚特性と第2の向きを用いて、第1のユーザーインターフェース領域(例えば、ARビュー)内に仮想オブジェクトを表示することと同時に、スナップショットアフォーダンス(例えば、カメラシャッターボタン)を表示する(16044)。スナップショットアフォーダンスの活性化に応じて、デバイスは、1つ以上のカメラの視野における物理的環境における配置場所において、第2の1組の視覚特性と、1つ以上のカメラのビューの視野内で検出された物理的環境におけるプレーンに対応する第2の向きとを用いて、仮想オブジェクトの表現の現在のビューを含むスナップショット画像をキャプチャする(16046)。現在のオブジェクトのビューのスナップショット画像をキャプチャするためスナップショットアフォーダンスを表示することは、オブジェクトのスナップショット画像をキャプチャするために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device uses a second set of visual characteristics and a second orientation to display a virtual object within a first user interface area (eg, an AR view) at the same time. Display snapshot affordances (eg, camera shutter button) (16044). Depending on the activation of the snapshot affordance, the device is placed in the physical environment in the field of view of one or more cameras, with a second set of visual characteristics and within the field of view of the view of one or more cameras. A snapshot image containing the current view of the representation of the virtual object is captured with a second orientation corresponding to the plane in the detected physical environment (16046). Displaying a snapshot affordance to capture a snapshot image of the current object's view reduces the number of inputs required to capture the object's snapshot image. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、第1のユーザーインターフェース領域内に、第2の1組の視覚特性を有する仮想オブジェクトの表現とともに、1つ以上の制御アフォーダンス(例えば、ステージングユーザーインターフェースへスイッチバックするためのアフォーダンス、ARビューワから出るためのアフォーダンス、スナップショットをキャプチャするためのアフォーダンス等)を表示する(16048)。例えば、図11Jでは、バック制御6016、トグル制御6018、及びシェア制御6020を含む制御のセットが表示される。第2の1組の視覚特性を有する仮想オブジェクトの表現とともに、1つ以上の制御アフォーダンスを表示している間、デバイスは、制御フェイディング基準が満たされている(例えば、閾値時間の間、(例えば、デバイスの移動及びカメラの視野に対する更新とともに、又は、デバイスの移動及びカメラの視野に対する更新なく)タッチ感知面においてユーザー入力が検出されなかった)ことを検出する(16050)。制御フェージング基準が満たされていることを検出することに応じて、デバイスは、1つ以上のカメラの視野を含む第1のユーザーインターフェース領域内に、第2の1組の視角特性を有する仮想オブジェクトの表現の表示を継続している間、1つ以上の制御アフォーダンスを表示することを停止する(16052)。例えば、図11K~図11Lに関して説明されるように、閾値時間の間、ユーザー入力が検出されない場合、制御6016、6018、6020は、徐々に、フェードアウトし、表示されないようになる。いくつかの実施形態において、制御アフォーダンスがフェードアウェイされた後、タッチ感知面におけるタップ入力、又は、仮想オブジェクトとの相互作用が、デバイスに対して、第1のユーザーインターフェース領域内に、仮想オブジェクトの表現と同時に、制御アフォーダンスを再表示させる。制御フェージング基準が満たされているとの判定に応じて、制御の表示を自動的に停止することは、制御の表示を停止するために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device switches back to one or more control affordances (eg, staging user interface) within a first user interface area, with a representation of a virtual object having a second set of visual characteristics. Displays affordances to do, affordances to exit the AR viewer, affordances to capture snapshots, etc. (16048). For example, in FIG. 11J, a set of controls including back control 6016, toggle control 6018, and share control 6020 is displayed. While displaying one or more control affordances, along with a representation of a virtual object with a second set of visual characteristics, the device meets the control fading criteria (eg, for a threshold time, (eg, for a threshold time). For example, with the movement of the device and the update to the field of view of the camera, or without the movement of the device and the update to the field of view of the camera), it is detected (16050) that the user input was not detected on the touch sensing surface. In response to detecting that the control fading criteria are met, the device is a virtual object with a second set of viewing angle characteristics within a first user interface area that includes the field of view of one or more cameras. Stop displaying one or more control affordances while continuing to display the representation of (16052). For example, as described with respect to FIGS. 11K-11L, if no user input is detected during the threshold time, the controls 6016, 6018, 6020 will gradually fade out and disappear. In some embodiments, after the control affordance is faded away, tap input on the touch-sensitive surface, or interaction with the virtual object, is associated with the device within the first user interface area of the virtual object. Redisplay the control affordance at the same time as the expression. Automatically stopping the display of the control in response to the determination that the control fading criteria are met reduces the number of inputs required to stop the display of the control. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域内に仮想オブジェクトを表示するための要求に応じて、第1のユーザーインターフェース領域に含まれている1つ以上のカメラの視野の少なくとも一部の上方に、仮想オブジェクトの表現を表示する前に、(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境のための寸法及び空間関係データを生成するために、異なる視野角度からの十分な量の画像が存在しないので、)較正基準が満たされていないとの判定にしたがって、デバイスは、物理的環境に対してデバイスを移動させるための、ユーザーのためのプロンプトを表示する(例えば、方法17000を参照して以下により詳細に説明されるように、(例えば、較正ユーザーインターフェースオブジェクトが1つ以上のカメラの視野の、ぶれた画像にオーバレイされる)第1のユーザーインターフェース領域内に、デバイスを移動させるための視覚的なプロンプトを表示し、オプションとして、較正ユーザーインターフェースオブジェクト(例えば、デバイスの移動にしたがって移動する弾力性ワイヤフレームボール又は立方体)を表示する)(16054)。物理的環境に対してデバイスをユーザーが移動させるためのプロンプトを表示することは、(例えば、カメラの視野に仮想オブジェクトを配置するための情報を取得するために、デバイスの移動が必要とされることを示すために、)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが較正入力を提供することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する)。 In some embodiments, at least a portion of the field of view of one or more cameras contained in the first user interface area, in response to a request to display a virtual object within the first user interface area. Sufficient from different viewing angles (eg, to generate dimensional and spatial relational data for the physical environment captured in the field of view of one or more cameras) before displaying the representation of the virtual object above. According to the determination that the calibration criteria are not met (because there is not enough image), the device displays a prompt for the user to move the device to the physical environment (eg, for example). Within the first user interface area (eg, the calibrated user interface object is overlaid with a blurred image in the field of view of one or more cameras), as described in more detail below with reference to Method 17000. Display a visual prompt to move the device and optionally a calibrated user interface object (eg, a resilient wireframe ball or cube that moves as the device moves) (16054). Prompting for the user to move the device to the physical environment requires the device to be moved (for example, to get information to place the virtual object in the field of view of the camera). To show that) provide visual feedback to the user. Providing improved visual feedback to the user enhances the usability of the device (eg, by helping the user provide the calibration input) and makes the user device interface more efficient. It also reduces power usage and improves device battery life by allowing users to use the device faster and more efficiently).

図16A~図16Gにおける動作が説明されている特定の順序は単なる例であり、説明された順序は、これら動作が実行され得る唯一の順序であることを示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、17000、18000、19000、及び20000)に関して本明細書で説明された他の処理の詳細はまた、図16A~図16Gに関して上述された方法16000に類似の方式でも適用可能であることが注目されるべきである。例えば、方法16000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、17000、18000、19000、及び20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It is understood that the particular order in which the operations in FIGS. 16A-16G are described is merely an example and the described order is not intended to indicate that these operations are the only order in which they can be performed. It should be. Those of skill in the art will recognize various techniques for reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 800, 900, 1000, 17000, 18000, 19000, and 20000) are also illustrated. It should be noted that a method similar to the method 16000 described above for 16A-16G is also applicable. For example, the contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / or animations described above with reference to method 16000 are optionally other methods described herein. Contact, input, virtual object, user interface area, visual field, tactile output, movement, and as described herein with reference to (eg, methods 800, 900, 1000, 17000, 18000, 19000, and 20000). / Or have one or more of the features consisting of animation. For the sake of brevity, these details are not repeated herein.

図17A~図17Dは、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化される較正ユーザーインターフェースオブジェクトを表示する方法17000を例示するフロー図である。方法17000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)、1つ以上の入力デバイス(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)、1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側面上の1つ以上の背面カメラ)、及び、1つ以上のカメラを含むデバイスの姿勢における変化(例えば、周囲の物理的環境に対する向き(例えば、回転、ヨー、及び/又は、傾斜角度)及び位置)を検出するための1つ以上の姿勢センサ(例えば、加速度計、ジャイロスコープ、及び/又は、磁力計)、を有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。方法17000におけるいくつかの動作は、オプションで、組み合わされ、及び/又は、いくつかの動作の順序は、オプションで、変更される。 17A-17D are flow diagrams illustrating method 17000 to display a calibrated user interface object that is dynamically animated as the device moves one or more cameras. Method 17000 is a display generation component (eg, a display, a projector, a head-up display, etc.) and one or more input devices (eg, a touch sensitive surface, or a touch screen display that serves as both a display generation component and a touch sensitive surface. ) Changes in the attitude of one or more cameras (eg, one or more rear cameras on the side of the device opposite the display and touch-sensitive surface), and one or more cameras (eg, surroundings). One or more attitude sensors (eg, accelerometers, gyroscopes, and / or magnetic meters) for detecting orientation (eg, rotation, yaw, and / or tilt angle) and position with respect to the physical environment of the camera. , (Eg, device 300 in FIG. 3 or portable multifunction device 100 in FIG. 1A). Some actions in method 17000 are optionally combined and / or the order of some actions is optionally changed.

デバイスは、1つ以上のカメラの視野(例えば、視野は、物理的環境の少なくとも一部をキャプチャする)の表現を含む第1のユーザーインターフェース領域内に、物理的環境(例えば、1つ以上のカメラを含むデバイスの周囲の物理的環境)の拡張現実ビューを表示するための要求を受信する(17002)。いくつかの実施形態では、この要求は、仮想オブジェクトのステージングビューから、仮想オブジェクトの、拡張現実ビューへ切り換えるためのボタンにおいて検出されたタップ入力である。いくつかの実施形態では、この要求は、二次元ユーザーインターフェース内に、仮想オブジェクトの表現の隣に表示される、拡張現実アフォーダンスの選択である。いくつかの実施形態では、この要求は、拡張現実測定アプリケーション(例えば、物理的環境の測定を容易にする測定アプリ)の活性化である。例えば、この要求は、図12Aに関して説明されるように、1つ以上のカメラの視野6036に、仮想オブジェクト11002を表示するために、トグル6018において検出されたタップ入力である。 The device is within a first user interface area containing a representation of the field of view of one or more cameras (eg, the field of view captures at least a portion of the physical environment), the physical environment (eg, one or more). Receives a request to display an augmented reality view of the physical environment around the device, including the camera (1702). In some embodiments, this request is a tap input detected on a button for switching from the staging view of the virtual object to the augmented reality view of the virtual object. In some embodiments, this requirement is an augmented reality affordance selection that appears next to the representation of the virtual object in the two-dimensional user interface. In some embodiments, this requirement is the activation of an augmented reality measurement application (eg, a measurement app that facilitates measurement of the physical environment). For example, this request is a tap input detected in toggle 6018 to display the virtual object 11002 in the field of view 6036 of one or more cameras, as described with respect to FIG. 12A.

物理的環境の拡張現実ビューを表示するための要求を受信することに応じて、デバイスは、1つ以上のカメラの視野の表現を表示する(例えば、デバイスは、較正基準が満たされていない場合、1つ以上のカメラの視野に、物理的環境のぶれたバージョンを表示する)(17004)。例えば、デバイスは、図12E-1に図示されるように、1つ以上のカメラの視野6036のぶれた表現を表示する。(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境のための寸法及び空間関係データを生成するために、(例えば、異なる視野角度からの)十分な量の画像データが存在しないので、仮想オブジェクトに対応するプレーンが、1つ以上のカメラの視野内で検出されないので、及び/又は、カメラから利用可能な画像データに基づいて、プレーン検出を開始又はプレーン検出とともに進めるための十分な情報が存在しないので、)物理的環境の拡張現実ビューのための較正基準が満たされていないとの判定にしたがって、デバイスは、(例えば、表示生成コンポーネントによって、及び、(例えば、視野のぶれたバージョンのような)1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に)物理的環境における1つ以上のカメラの移動にしたがって動的にアニメーション化される較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)を表示する。例えば、図12E-1ないし図12I-1において、較正ユーザーインターフェースオブジェクト12014が表示される。1つ以上のカメラの移動に従う較正ユーザーインターフェースオブジェクトのアニメーションは、例えば、図12E-1ないし図12F-1に関して説明される。いくつかの実施形態では、1つ以上のカメラの視野において、1つ以上のプレーン(例えば、床、壁、テーブル等)を検出するために、1つ以上のカメラの視野を分析することは、拡張現実ビューの表現を表示するための要求に対応する入力の初期部分が受信された場合に生じる。いくつかの実施形態では、分析することは、この要求を受信する前(例えば、仮想オブジェクトがステージングビューに表示されている間)に生じる。較正ユーザーインターフェースオブジェクトを表示することは、較正ユーザーインターフェースオブジェクトを表示している間、1つ以上の姿勢センサによって、物理的環境における1つ以上のカメラの姿勢(例えば、場所及び/又は向き(例えば、回転、傾斜、ヨー角))における変化を検出することと、物理的環境における1つ以上のカメラの姿勢における変化を検出することに応じて、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)の少なくとも1つの表示パラメータ(例えば、ディスプレイにおける向き、サイズ、回転、又は場所)を調節することと、を含む。例えば、図12E-2ないし図12F-2にそれぞれ対応する図12E-1ないし図12F-1は、物理的環境5002に対するデバイス100の横移動と、デバイスの1つ以上のカメラの、表示された視野6036における対応する変化とを例示する。図12E-2ないし図12F-2では、較正ユーザーインターフェースオブジェクト12014は、1つ以上のカメラの移動に応じて回転する。 In response to receiving a request to display an augmented reality view of the physical environment, the device displays a representation of the field of view of one or more cameras (eg, if the device does not meet the calibration criteria). Display a blurred version of the physical environment in the field of view of one or more cameras) (17004). For example, the device displays a blurred representation of the field of view 6036 of one or more cameras, as illustrated in FIG. 12E-1. Because there is not enough image data (eg, from different viewing angles) to generate dimensional and spatial relationship data for the physical environment captured in the field of view of one or more cameras (eg, from different viewing angles). Sufficient to initiate or proceed with plane detection, because the plane corresponding to the virtual object is not detected in the field of view of one or more cameras, and / or based on the image data available from the cameras. According to the determination that the calibration criteria for the augmented reality view of the physical environment (because of the absence of information) are not met, the device (eg, by the display generation component) and (eg, the field of view is blurred). A calibrated user interface object (within a first user interface area) that contains a representation of the field of view of one or more cameras (such as a version) that is dynamically animated as one or more cameras move in a physical environment. Display a scan prompt object, such as a resilient cube or wireframe object). For example, in FIGS. 12E-1 to 12I-1, the calibration user interface object 12014 is displayed. Animation of a calibrated user interface object that follows the movement of one or more cameras is described, for example, with respect to FIGS. 12E-1 to 12F-1. In some embodiments, analyzing the field of view of one or more cameras in order to detect one or more planes (eg, floors, walls, tables, etc.) in the field of view of one or more cameras is possible. Occurs when the initial portion of the input corresponding to the request to display the representation of the augmented reality view is received. In some embodiments, the analysis occurs before receiving this request (eg, while the virtual object is displayed in the staging view). Displaying a calibrated user interface object means displaying one or more camera attitudes (eg, location and / or orientation (eg, location and / or orientation) (eg, location and / or orientation) in a physical environment by one or more attitude sensors while displaying the calibrated user interface object. , Rotation, tilt, yaw angle)), and in response to detecting changes in the posture of one or more cameras in the physical environment, in the posture of one or more cameras in the physical environment. At least one display parameter (eg, orientation, size, rotation, or location in the display) of a calibrated user interface object (eg, a scan prompt object such as a resilient cube or wireframe object) according to the detected changes. To adjust and include. For example, FIGS. 12E-1 to 12F-1 corresponding to FIGS. 12E-2 to 12F-2 show lateral movement of the device 100 relative to the physical environment 5002 and one or more cameras of the device. Illustrate with the corresponding changes in field of view 6036. In FIGS. 12E-2 to 12F-2, the calibration user interface object 12014 rotates in response to the movement of one or more cameras.

物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、ディスプレイ上を移動する較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)を表示している間、デバイスは、較正基準が満たされていないことを検出する(17006)。例えば、図12E~図12Jに関して説明されるように、デバイスは、図12E-1ないし図12I-1から生じるデバイスの移動に応じて、較正基準が満たされていることを判定する。 Displays a calibrated user interface object (eg, a scan prompt object such as an elastic cube or wireframe object) that moves over the display according to the detected changes in the posture of one or more cameras in the physical environment. While the device detects that the calibration criteria are not met (17006). For example, as described with respect to FIGS. 12E-12J, the device determines that the calibration criteria are met in response to the movement of the device resulting from FIGS. 12E-1 to 12I-1.

較正基準が満たされていることを検出することに応じて、デバイスは、較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)の表示を停止する(17008)。いくつかの実施形態では、デバイスが、較正ユーザーインターフェースオブジェクトの表示を停止した後、デバイスは、カメラの視野の表現を、ぶれなく表示する。いくつかの実施形態では、仮想オブジェクトの表現は、カメラの視野のぶれのない表現の上方に表示される。例えば、図12Jにおいて、図12E-1ないし図12I-1に関して説明されるデバイスの移動に応じて、較正ユーザーインターフェースオブジェクト12014は、もはや表示されず、仮想オブジェクト11002が、カメラの視野の、ぶれのない表現6036にわたって表示される。1つ以上のカメラ(例えば、デバイスの物理的環境をキャプチャするデバイスカメラ)の移動にしたがって較正ユーザーインターフェースオブジェクトの表示パラメータを調節することは、(例えば、較正のためにデバイスの移動が必要とされていることを示すために)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、較正基準を満たすために必要とされる情報を提供する方式で、ユーザーがデバイスを移動させることを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting that the calibration criteria are met, the device stops displaying calibration user interface objects (eg, scan prompt objects such as elastic cubes or wireframe objects) (1708). .. In some embodiments, after the device has stopped displaying the calibrated user interface object, the device displays the representation of the camera's field of view consistently. In some embodiments, the representation of the virtual object is displayed above the consistent representation of the camera's field of view. For example, in FIG. 12J, in response to the movement of the device described with respect to FIGS. 12E-1 to 12I-1, the calibration user interface object 12014 is no longer displayed and the virtual object 1102 is a blur of the camera's field of view. Not displayed over 6036. Adjusting the display parameters of a calibrated user interface object according to the movement of one or more cameras (eg, a device camera that captures the physical environment of the device) requires movement of the device (eg, for calibration). Provide visual feedback to the user (to show that they are). Providing improved visual feedback to the user (eg, by helping the user move the device in a way that provides the information needed to meet the calibration criteria) of the device. Improves operability and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に、物理的環境(例えば、1つ以上のカメラを含むデバイスの周囲の物理的環境)の拡張現実ビューを表示するための要求は、物理的環境の拡張現実ビューにおける仮想三次元オブジェクト(例えば、三次元モデルを有する仮想オブジェクト)の表現を表示するための要求を含む(17010)。いくつかの実施形態では、この要求は、仮想オブジェクトのステージングビューから、仮想オブジェクトの拡張現実ビューへ切り換えるためのボタンにおいて検出されたタップ入力である。いくつかの実施形態では、この要求は、二次元ユーザーインターフェース内に、仮想オブジェクトの表現の隣に表示される拡張現実アフォーダンスの選択である。例えば、図12Aでは、トグル制御6018に対応する場所における接触12002による入力は、図12Bに図示されるように、カメラの視野6036を含むユーザーインターフェース内に、仮想オブジェクト11002を表示するための要求である。拡張現実ビューにおいて仮想オブジェクトを表示するための要求に応じて、物理的環境の拡張現実ビューを表示することは、(例えば、物理的環境と仮想オブジェクトとの両方のビューを表示するために)必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、(例えば、ユーザーが較正入力を提供することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, an extension of the physical environment (eg, the physical environment around a device containing one or more cameras) within a first user interface area that includes a representation of the field of view of one or more cameras. A request for displaying a real view includes a request for displaying a representation of a virtual three-dimensional object (eg, a virtual object having a three-dimensional model) in an augmented reality view of a physical environment (17010). In some embodiments, this request is a tap input detected on a button for switching from a staging view of a virtual object to an augmented reality view of the virtual object. In some embodiments, this requirement is an augmented reality affordance selection that appears next to the representation of the virtual object in the two-dimensional user interface. For example, in FIG. 12A, the input by contact 12002 at the location corresponding to the toggle control 6018 is a request to display the virtual object 11002 in the user interface including the camera field of view 6036, as illustrated in FIG. 12B. be. In response to a request to display an augmented reality view in an augmented reality view, displaying an augmented reality view of the physical environment is required (for example, to display both the physical environment and the virtual object view). Reduce the number of inputs. Reducing the number of inputs required to perform an operation enhances the usability of the device (eg, by helping the user provide calibration inputs) and makes the user device interface more efficient. To. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、較正ユーザーインターフェースオブジェクトの表示を停止した後、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に、仮想三次元オブジェクトの表現を(例えば、較正基準が満たされた後に)表示する(17012)。いくつかの実施形態では、この要求に応じて、較正が完了し、カメラの視野が十分鮮明に表示された後、仮想オブジェクトは、1つ以上のカメラの視野内で識別された所定のプレーン(例えば、仮想オブジェクトの三次元表現のためのサポートプレーンとして役立ち得る垂直壁又は水平床面のような物理的なプレーン)に対して所定の位置及び/又は向きへドロップする。例えば、図12Jにおいて、デバイスは、図12E~図12Iに表示された較正ユーザーインターフェースオブジェクト12014を表示することを停止し、仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェース内に表示される。較正ユーザーインターフェースオブジェクトの表示の停止後、表示された拡張現実ビューで仮想オブジェクトを表示することは、(例えば、較正基準が満たされていることを示すために)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することと、較正基準が満たされる前に仮想オブジェクトを操作するための入力の提供を試みることを回避することとを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device stops displaying the calibrated user interface object and then places a representation of the virtual three-dimensional object (eg, a representation of the virtual three-dimensional object) within a first user interface region that includes a representation of the field of view of one or more cameras. (After the calibration criteria are met) (17012). In some embodiments, in response to this requirement, after the calibration is complete and the camera's field of view is displayed clearly enough, the virtual object is a predetermined plane identified within the field of view of one or more cameras. Drop in a given position and / or orientation with respect to a physical plane such as a vertical wall or horizontal floor that can serve as a support plane for a three-dimensional representation of a virtual object, for example. For example, in FIG. 12J, the device stops displaying the calibration user interface object 12014 displayed in FIGS. 12E-12I, and the virtual object 11002 is displayed in the user interface including the camera field of view 6036. Displaying a virtual object in the displayed augmented reality view after stopping the display of the calibration user interface object provides visual feedback (eg, to show that the calibration criteria are met). Providing improved visual feedback to the user (eg, avoiding the user providing the appropriate input and attempting to provide input to manipulate the virtual object before the calibration criteria are met. By assisting in doing things, it makes the device easier to use and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、較正ユーザーインターフェースオブジェクトと同時に(例えば、較正ユーザーインターフェースオブジェクトの後方に)、第1のユーザーインターフェース領域内に、仮想三次元オブジェクトの表現を(例えば、較正基準が満たされる前に)表示し、仮想三次元オブジェクトの表現は、物理的環境における1つ以上のカメラの移動中(例えば、較正ユーザーインターフェースオブジェクトが、1つ以上のカメラの移動にしたがって、第1のユーザーインターフェース領域内で移動されている間)、第1のユーザーインターフェース領域内の固定位置にとどまる(例えば、仮想三次元オブジェクトは、物理的環境における場所に配置されない)(17014)。例えば、図12E-1ないし図12I-1において、仮想オブジェクト11002の表現は、較正ユーザーインターフェースオブジェクト12014と同時に表示される。(例えば、図12E-1ないし図12F-1及び対応する図12E-2ないし図12F-2に例示されるように)1つ以上のカメラを含むデバイス100が移動すると、仮想オブジェクト11002は、1つ以上のカメラの視野6036を含むユーザーインターフェース内の固定場所にとどまる。仮想オブジェクトを較正ユーザーインターフェースオブジェクトと同時に表示することは、(例えば、較正が実行されているオブジェクトを示すために)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、仮想オブジェクトが配置されるプレーンに対応する較正入力を、ユーザーが提供することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device presents a representation of the virtual three-dimensional object (eg, calibration criteria) within the first user interface area at the same time as the calibrated user interface object (eg, behind the calibrated user interface object). Displayed (before being filled), the representation of the virtual three-dimensional object is the first while the one or more cameras are moving in the physical environment (eg, the calibrated user interface object is moving one or more cameras). While being moved within the user interface area), it remains in a fixed position within the first user interface area (eg, virtual three-dimensional objects are not placed in place in the physical environment) (17014). For example, in FIGS. 12E-1 to 12I-1, the representation of the virtual object 11002 is displayed at the same time as the calibration user interface object 12014. When the device 100 including one or more cameras moves (as exemplified by, for example, FIGS. 12E-1 to 12F-1 and the corresponding FIGS. 12E-2 to 12F-2), the virtual object 11002 becomes 1 Stay in a fixed location within the user interface, including the field of view 6036 for one or more cameras. Displaying a virtual object at the same time as a calibrated user interface object provides visual feedback (eg, to show the object being calibrated). Providing improved visual feedback to the user enhances the usability of the device (eg, by helping the user provide the calibration input corresponding to the plane on which the virtual object is placed). Make the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に、物理的環境(例えば、1つ以上のカメラを含むデバイスの周囲の物理的環境)の拡張現実ビューを表示するための要求は、1つ以上のカメラの視野にキャプチャされた物理的環境におけるいずれの仮想三次元オブジェクト(例えば、三次元モデルを有する仮想オブジェクト)の表現の表示も要求することなく、(例えば、1つ以上のユーザーインターフェースオブジェクト、及び/又は、制御(例えば、プレーン、オブジェクト、ポインタ、アイコン、マーカ等の輪郭)を用いて、)1つ以上のカメラの視野の表現を表示するための要求を含む(17016)。いくつかの実施形態では、この要求は、二次元ユーザーインターフェース内に、仮想オブジェクトの表現の隣に表示される、拡張現実アフォーダンスの選択である。いくつかの実施形態では、この要求は、拡張現実ビュー測定アプリケーション(例えば、物理的環境の測定を容易にする測定アプリ)の活性化である。いずれの仮想三次元オブジェクトの表現の表示も要求することなく、1つ以上のカメラの視野の表現を表示するための要求は、(例えば、仮想オブジェクトが表示されるか否かに関わらず、較正が必要とされることを示すために、同じ較正ユーザーインターフェースオブジェクトを使用することによって)フィードバックを提供する。改善されたフィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, an extension of the physical environment (eg, the physical environment around a device containing one or more cameras) within a first user interface area that includes a representation of the field of view of one or more cameras. The request to display a real view also requires the display of a representation of any virtual three-dimensional object (eg, a virtual object with a three-dimensional model) in a physical environment captured in the field of one or more cameras. Not (eg, using one or more user interface objects and / or controls (eg, contours of planes, objects, pointers, icons, markers, etc.)) to display a representation of the field of view of one or more cameras. Includes a request to do (17016). In some embodiments, this requirement is an augmented reality affordance selection that appears next to the representation of the virtual object in the two-dimensional user interface. In some embodiments, this requirement is the activation of an augmented reality view measurement application (eg, a measurement app that facilitates measurement of the physical environment). The request to display the field of view representation of one or more cameras (eg, whether or not the virtual object is displayed) is calibrated without requiring the display of any representation of the virtual three-dimensional object. Provides feedback (by using the same calibration user interface object) to show that is needed. Providing improved feedback to the user enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境の拡張現実ビューを表示するための要求を受信することに応じて、デバイスは、1つ以上のカメラの視野の表現を表示し(例えば、較正基準が満たされない場合、1つ以上のカメラの視野における物理的環境のぶれたバージョンを表示し)、(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境のための寸法及び空間関係データを生成するために(例えば、異なる視野角度からの)十分な量の画像データが存在するので、仮想オブジェクトに対応するプレーンが、1つ以上のカメラの視野内で検出されたので、及び/又は、カメラからの利用可能な画像データに基づいて、プレーン検出を開始又はプレーン検出とともに進めるための十分な情報が存在するので、)物理的環境の拡張現実ビューのために較正基準が満たされているとの判定にしたがって、デバイスは、較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)の表示を控える(17018)。いくつかの実施形態では、仮想三次元オブジェクトが、ステージングユーザーインターフェース内に表示されている間に、プレーンに関する物理的環境のスキャンが始まる。これによって、デバイスは、(例えば、物理的空間における1つ以上のプレーンを検出するために十分なデータを提供するために、カメラの視野が十分移動した)いくつかの状況において、拡張現実ビューを表示する前に、物理的空間における1つ以上のプレーンを検出することが可能となり、これによって、較正ユーザーインターフェースは、表示される必要がなくなる。物理的環境の拡張現実ビューのために、較正基準が満たされているとの判定にしたがって、較正ユーザーインターフェースオブジェクトの表示を控えることは、視覚的フィードバックをユーザーへ提供する(例えば、較正ユーザーインターフェースオブジェクトの不在は、較正基準が満たされており、較正のためにデバイスの移動は必要とされないことを示す)。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、較正の目的のために、ユーザーがデバイスの不要な移動を回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device displays a representation of the field of view of one or more cameras in response to receiving a request to display an augmented reality view of the physical environment (eg, calibration criteria are met). If not, display a blurred version of the physical environment in the field of view of one or more cameras) (eg, generate dimensional and spatial relationship data for the physical environment captured in the field of view of one or more cameras). Since there is sufficient amount of image data (eg, from different viewing angles) to do so, the plane corresponding to the virtual object has been detected within the field of view of one or more cameras, and / or the camera. Based on the image data available from, there is sufficient information to initiate or proceed with the plane detection) that the calibration criteria are met for the augmented reality view of the physical environment. According to the determination, the device refrains from displaying the calibrated user interface object (eg, a scan prompt object such as a resilient cube or wireframe object) (17018). In some embodiments, a scan of the physical environment for the plane begins while the virtual 3D object is displayed within the staging user interface. This allows the device to provide an augmented reality view in some situations (eg, the camera's field of view has moved sufficiently to provide sufficient data to detect one or more planes in physical space). It is possible to detect one or more planes in physical space before displaying, which eliminates the need for the calibration user interface to be displayed. For the augmented reality view of the physical environment, refraining from displaying the calibration user interface object according to the determination that the calibration criteria are met provides visual feedback to the user (eg, the calibration user interface object). Absence indicates that the calibration criteria are met and no device movement is required for calibration). Providing improved visual feedback to the user enhances the usability of the device (eg, by helping the user avoid unnecessary movement of the device for calibration purposes) and the user. Make the device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、(例えば、較正ユーザーインターフェースオブジェクトの隣の)拡張現実ビューの較正を改善するために、ユーザーによって講じられ得る動作に関する情報を提供する較正ユーザーインターフェースオブジェクトと同時に、第1のユーザーインターフェース領域内に、テキストオブジェクト(例えば、現在検出されているエラー状態を記述しているテキスト記述、及び/又は、(例えば、検出されたエラー状態を修正するために)ユーザー動作を要求するテキストプロンプト)を(例えば、較正基準が満たされる前に)表示する(17020)。いくつかの実施形態では、テキストオブジェクトは、「移動しすぎ」、「下に細かく」、「もっと近くに移動して下さい」等のような、デバイスの移動のためのプロンプトを(現在、検出されているエラー状態とともに)ユーザーへ提供する。いくつかの実施形態では、デバイスは、較正処理中のユーザーの動作と、ユーザーの動作に基づいて検出された新たなエラー状態とにしたがって、テキストオブジェクトを更新する。較正ユーザーインターフェースオブジェクトと同時にテキストを表示することは、(例えば、較正のために必要とされる移動のタイプを示す文字指示を提供する)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合、ユーザー誤りを低減する)。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device simultaneously provides a calibration user interface object that provides information about the actions that can be taken by the user to improve the calibration of the augmented reality view (eg, next to the calibration user interface object). Within the first user interface area, a text object (eg, a text description describing the currently detected error condition and / or a user action (eg, to correct the detected error condition)). Display the requested text prompt (eg, before the calibration criteria are met) (17020). In some embodiments, the text object prompts (currently detected) for moving the device, such as "move too much", "move down", "move closer", and so on. Provide to the user (along with the error status). In some embodiments, the device updates the text object according to the user's behavior during the calibration process and a new error condition detected based on the user's behavior. Displaying text at the same time as the calibration user interface object provides the user with visual feedback (eg, providing textual instructions indicating the type of movement required for calibration). Providing improved visual feedback to the user enhances the usability of the device and makes the user device interface more efficient (eg, helping the user provide the appropriate input and working with the device / Reduce user error when interacting). It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、較正基準が満たされていること(例えば、較正ユーザーインターフェースオブジェクトが表示される前に満たされている基準、又は、較正ユーザーインターフェースオブジェクトが表示され、ある期間、アニメーション化された後に満たされた基準)を検出することに応じて、デバイスは、(例えば、較正ユーザーインターフェースオブジェクトが最初に表示されたのであれば、較正ユーザーインターフェースオブジェクトの表示を停止した後に、)1つ以上のカメラの視野においてキャプチャされた物理的環境において検出されたプレーンの視覚的な指示を表示する(例えば、検出されたプレーンの周囲の輪郭を表示する、又は、検出されたプレーンを強調する)(17022)。例えば、図12Jでは、1つ以上のカメラの表示された視野6036においてキャプチャされると、物理的環境5002においてプレーンが検出されたことを示すために、プレーン(床面5038)が強調されている。検出されたプレーンを示す視覚的な指示を表示することは、(例えば、デバイスカメラによってキャプチャされた物理的環境においてプレーンが検出されたことを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the calibration criteria are met (eg, the criteria met before the calibration user interface object is displayed, or the calibration user interface object is displayed and animated for a period of time. Depending on the detection of the criteria that were met afterwards), the device may have one or more (eg, after stopping the display of the calibrated user interface object if the calibrated user interface object was first displayed). Displays visual indications of the planes detected in the physical environment captured in the camera's field of view (eg, displays the contours around the detected planes or highlights the detected planes) ( 17022). For example, in FIG. 12J, the plane (floor surface 5038) is highlighted to indicate that the plane was detected in the physical environment 5002 when captured in the displayed field of view 6036 of one or more cameras. .. Displaying visual instructions indicating the detected plane provides visual feedback (eg, indicating that the plane was detected in the physical environment captured by the device camera). Providing improved visual feedback to the user (eg, by helping the user provide the appropriate input and reducing user error when operating / interacting with the device). Improve device usability and make user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境の拡張現実ビューを表示するための要求を受信することに応じて、較正基準が満たされていないとの判定にしたがって、較正ユーザーインターフェースオブジェクトを表示する前に、デバイスは、(例えば、表示生成コンポーネントによって、及び、1つ以上のカメラの視野の表現(例えば、視野のぶれたバージョン)を含む第1のユーザーインターフェース領域内に、)プレーンの表現に対して移動するデバイスの表現(例えば、プレーンの表現に対するデバイスの表現の移動は、ユーザーによって影響されるべき、必要とされるデバイスの移動を示す)を含むアニメーション化されたプロンプトオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)を表示する(17024)。例えば、アニメーション化されたプロンプトオブジェクトは、図12B~図12Dに関して説明されるように、プレーンの表現12010に対して移動するデバイス100の表現12004を含む。いくつかの実施形態では、デバイスは、デバイスが、デバイスの移動を検出した(例えば、較正を進めることができる手法で、ユーザーが、デバイスの移動を開始したことを示す)場合、アニメーション化されたプロンプトオブジェクトの表示を停止する。いくつかの実施形態では、デバイスが、デバイスの移動を検出した場合、かつ、デバイスの較正に関して更にユーザーをガイドする較正が完了される前に、デバイスは、アニメーション化されたプロンプトオブジェクトの表示を、較正ユーザーインターフェースオブジェクトと置き換える。例えば、図12C~図12Eに関して説明されるように、(図12C~図12Dに図示されるように)デバイスの移動が検出された場合、デバイス100の表現12004を含むアニメーション化されたプロンプトは、表示が停止され、較正ユーザーインターフェースオブジェクト12014が、図12Eに表示される。プレーンの表現に対して移動するデバイスの表現を含む、アニメーション化されたプロンプトオブジェクトを表示することは、(例えば、較正のために必要とされるデバイスの移動のタイプを例示するための)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、較正基準を満たすために必要とされる情報を提供する方式で、ユーザーがデバイスを移動させることを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a request to display an augmented reality view of the physical environment, according to the determination that the calibration criteria are not met, before displaying the calibrated user interface object. For a representation of the plane, the device (eg, by a display generation component and within a first user interface area containing a representation of the field of view of one or more cameras (eg, a blurred version)). An animated prompt object (eg, elastic) that contains a representation of the moving device (eg, the movement of the device's representation relative to the plane's representation indicates the required movement of the device that should be affected by the user). Display a scan prompt object, such as a cube or wireframe object (17024). For example, the animated prompt object includes a representation 12004 of the device 100 moving relative to the representation 12010 of the plane, as described for FIGS. 12B-12D. In some embodiments, the device is animated if the device detects movement of the device (eg, in a manner that allows calibration to proceed, indicating that the user has started moving the device). Stop displaying the prompt object. In some embodiments, the device displays an animated prompt object when the device detects movement of the device and before the calibration is completed to further guide the user regarding the calibration of the device. Replace with a calibrated user interface object. For example, as described for FIGS. 12C-12E, if a device movement is detected (as illustrated in FIGS. 12C-12D), the animated prompt containing representation 12004 of device 100 will be displayed. The display is stopped and the calibration user interface object 12014 is displayed in FIG. 12E. Displaying an animated prompt object that contains a representation of a moving device relative to a plain representation is visual (eg, to illustrate the type of device movement required for calibration). Provide feedback to users. Providing improved visual feedback to the user (eg, by helping the user move the device in a way that provides the information needed to meet the calibration criteria) of the device. Improves operability and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢において検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、物理的環境における1つ以上のカメラの第1の量の移動にしたがって、較正ユーザーインターフェースオブジェクトを第1の量、移動させることと、物理的環境における1つ以上のカメラの第2の量の移動にしたがって、較正ユーザーインターフェースオブジェクトを第2の量、移動させることとを含み、第1の量は、第2の量とは異なり(例えば、第2の量よりも大きく)、第1の量の移動は、第2の量の移動とは異なる(例えば、第2の量よりも大きい)(例えば、第1及び第2の量の移動は、物理的環境における同じ方向における移動に基づいて測定される)。較正ユーザーインターフェースオブジェクトを、1つ以上の(デバイス)カメラの移動の大きさに対応する量、移動させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへ示す)視覚的フィードバックを提供する(17026)。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of a calibrated user interface object according to the changes detected in the attitude of one or more cameras in the physical environment is one or more in the physical environment. A calibration user interface object is moved by a first quantity, according to the movement of a first quantity of cameras, and a calibration user interface object is moved by a second quantity of movement of one or more cameras in a physical environment. A second quantity, including moving, the first quantity is different from the second quantity (eg, greater than the second quantity), and the movement of the first quantity is that of the second quantity. Different from movement (eg, greater than the second quantity) (eg, movement of the first and second quantities is measured based on movement in the same direction in the physical environment). Moving a calibration user interface object by an amount corresponding to the magnitude of movement of one or more (device) cameras (eg, movement of the calibration user interface object is required for calibration of the device). Provide visual feedback (to show the user that it is a guide for travel) (17026). Providing improved visual feedback to the user (eg, by helping the user provide the appropriate input and reducing user error when operating / interacting with the device). Improve device usability and make user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、1つ以上のカメラの姿勢において検出された変化が、第1のタイプの移動(例えば、左側、右側、又は前後側のような横方向移動)に対応する(そして、第2のタイプの移動(例えば、上方、下方、及び上下移動のような垂直移動)に対応しない)との判定にしたがって、第1のタイプの移動に基いて、較正ユーザーインターフェースオブジェクトを移動させること(例えば、(例えば、較正ユーザーインターフェースオブジェクトによって、垂直軸の周りに較正ユーザーインターフェースオブジェクトを回転させることのように)第1の方式で較正ユーザーインターフェースオブジェクトを移動させること)と、1つ以上のカメラの姿勢における検出された変化が、第2のタイプの移動に対応する(そして、第1のタイプの移動に対応しない)との判定にしたがって、第2のタイプの移動に基づいて、較正ユーザーインターフェースオブジェクトを移動させることを控えること(例えば、較正ユーザーインターフェースオブジェクトを第1の方式で移動させることを控えること、すなわち、較正ユーザーインターフェースオブジェクトを静止させたままに維持すること)とを含む(17028)。例えば、(図12F-1ないし図12G-1、及び図12F-2ないし図12G-2に関して説明されるように、)1つ以上のカメラを含むデバイス100の横方向移動は、較正ユーザーインターフェースオブジェクト12014を回転させる一方、(例えば、図12G-1ないし図12H-1及び図12G-2ないし図12H-2に関して説明されるように、)デバイス100の垂直移動は、較正ユーザーインターフェースオブジェクト12014を回転させない。デバイスカメラの姿勢における検出された変化が、第2のタイプの移動に対応しているとの判定にしたがって、較正ユーザーインターフェースオブジェクトの移動を控えることは、(例えば、1つ以上のカメラの第2のタイプの移動が、較正のために必要とされていないことをユーザーへ示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが不要な入力を提供することを回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of a calibrated user interface object according to a detected change in the orientation of one or more cameras in a physical environment can be done in one or more camera orientations. The detected changes correspond to a first type of movement (eg, lateral movement such as left, right, or front-back) (and a second type of movement (eg, up, down, and up and down). Moving the calibrated user interface object based on the first type of movement (eg, by the calibrated user interface object, on the vertical axis) according to the determination that it does not correspond to (vertical movement such as movement). Moving the calibrated user interface object in the first way (such as rotating the calibrated user interface object around) and the detected changes in the posture of one or more cameras are the second type of movement. (And refrain from moving the calibrated user interface object based on the second type of move, according to the determination that it corresponds to (and does not correspond to the first type of move) (eg, the calibrated user interface object). The first method is to refrain from moving the calibrated user interface object, i.e. to keep the calibrated user interface object stationary) (17028). For example, lateral movement of the device 100 containing one or more cameras (as described with respect to FIGS. 12F-1 to 12G-1 and 12F-2 to 12G-2) is a calibration user interface object. While rotating 12014, vertical movement of device 100 (as described, eg, with respect to FIGS. 12G-1 to 12H-1 and 12G-2 to 12H-2) rotates the calibrated user interface object 12014. I won't let you. Withholding the movement of the calibrated user interface object according to the determination that the detected change in the attitude of the device camera corresponds to a second type of movement (eg, a second of one or more cameras). Provides visual feedback (indicating to the user that this type of movement is not required for calibration). Providing improved visual feedback to the user enhances the usability of the device (for example, by helping the user avoid providing unwanted input) and makes the user device interface more efficient. To target. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、第1のユーザーインターフェース領域の上方における較正ユーザーインターフェースオブジェクトの特徴的な表示場所(例えば、地理的中心の場所、又は、ディスプレイ上の較正ユーザーインターフェースオブジェクトの軸)を変更することなく、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトを移動(例えば、回転及び/又は傾斜)させることを含む(例えば、較正ユーザーインターフェースオブジェクトは、ディスプレイ上の固定場所へアンカーされる一方、物理的環境は、較正ユーザーインターフェースオブジェクトの真下の1つ以上のカメラの視野内で移動する)(17030)。例えば、図12E-1ないし図12I-1では、較正ユーザーインターフェースオブジェクト12014は、ディスプレイ112に対して固定された場所にとどまりながら回転する。較正ユーザーインターフェースオブジェクトの特徴的な表示場所を変更することなく、較正ユーザーインターフェースオブジェクトを移動させることは、(例えば、較正ユーザーインターフェースオブジェクトが、表示された拡張現実環境に対する場所に配置された仮想オブジェクトとは異なることを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを回避し、ユーザー入力誤りを低減することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of a calibrated user interface object according to a detected change in the orientation of one or more cameras in a physical environment is above the first user interface area. In the orientation of one or more cameras in a physical environment without changing the characteristic display location of the calibrated user interface object in (eg, the location of the geographical center or the axis of the calibrated user interface object on the display). It involves moving (eg, rotating and / or tilting) the calibrated user interface object according to the detected changes (eg, the calibrated user interface object is anchored to a fixed location on the display, while the physical environment (Move within the field of one or more cameras directly below the calibrated user interface object) (17030). For example, in FIGS. 12E-1 to 12I-1, the calibration user interface object 12014 rotates while staying in a fixed location with respect to the display 112. Moving a calibrated user interface object without changing the characteristic display location of the calibrated user interface object (for example, with a virtual object where the calibrated user interface object is placed in a location relative to the displayed augmented real environment). Provides visual feedback (indicating that is different). Providing improved visual feedback to the user enhances the usability of the device (eg, by avoiding providing the user with proper input and helping to reduce user input errors). , Make the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、物理的環境における1つ以上のカメラの移動方向に垂直な軸の周りに較正ユーザーインターフェースオブジェクトを回転させることを含む(例えば、(例えば、カメラを含む)デバイスがx-y面上を前後に移動している場合、較正ユーザーインターフェースオブジェクトは、z軸の周りに回転するか、又は、(例えば、カメラを含む)デバイスがx軸(例えば、x軸は、物理的環境に対する水平方向として定義され、例えば、タッチスクリーンディスプレイのプレーン内に位置する)に沿って左右交互に移動している場合、較正ユーザーインターフェースオブジェクトは、y軸の周りに回転する)(17032)。例えば、図12E-1ないし図12G-1では、較正ユーザーインターフェースオブジェクト12014は、図12E-2ないし図12G-2に図示されるように、デバイスの横方向移動に垂直な垂直軸の周りに回転する。デバイスカメラの移動に垂直な軸の周りに較正ユーザーインターフェースオブジェクトを回転させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへ示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of a calibrated user interface object according to a detected change in the attitude of one or more cameras in the physical environment is one or more in the physical environment. Includes rotating the calibrated user interface object around an axis perpendicular to the direction of movement of the camera (eg, if the device (eg, including the camera) is moving back and forth on the xy plane, the calibrated user interface. The object either rotates around the z-axis, or the device (eg, including the camera) is defined as the x-axis (eg, the x-axis is horizontal to the physical environment, eg, within the plane of a touch screen display). The calibrated user interface object rotates about the y-axis when moving alternately left and right along (located in) (17032). For example, in FIGS. 12E-1 to 12G-1, the calibration user interface object 12014 rotates about a vertical axis perpendicular to the lateral movement of the device, as illustrated in FIGS. 12E-2 to 12G-2. do. Rotating the calibration user interface object around an axis perpendicular to the movement of the device camera (for example, the movement of the calibration user interface object is a guide for the movement of the device required for calibration). To the user) Provide visual feedback. Providing improved visual feedback to the user (eg, by helping the user provide the appropriate input and reducing user error when operating / interacting with the device). Improve device usability and make user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、1つ以上のカメラの視野内で検出された変化の速度(例えば、物理的環境の移動速度)にしたがって判定された速度で較正ユーザーインターフェースオブジェクトを移動させることを含む(17034)。デバイスカメラの姿勢における変化にしたがって判定された速度で較正ユーザーインターフェースオブジェクトを移動させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of a calibrated user interface object according to a detected change in the attitude of one or more cameras in a physical environment is within the field of view of one or more cameras. Includes moving the calibrated user interface object at a speed determined according to the speed of change detected in (eg, the speed of movement of the physical environment) (17034). Moving the calibrated user interface object at a speed determined according to changes in the attitude of the device camera (eg, moving the calibrated user interface object is a guide for moving the device required for calibration. Provide visual feedback (indicating to the user that there is). Providing improved visual feedback to the user (eg, by helping the user provide the appropriate input and reducing user error when operating / interacting with the device). Improve device usability and make user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、1つ以上のカメラの視野内で検出された変化(例えば、物理的環境の移動速度)の方向にしたがって判定された方向において、較正ユーザーインターフェースオブジェクトを移動させることを含む(例えば、デバイスは、右から左へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを時計回りに回転させ、左から右へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを反時計回りに回転させるか、又は、デバイスは、右から左へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを反時計回りに回転させ、左から右へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを時計回りに回転させる)(17036)。デバイスカメラの姿勢における変化にしたがって判定された方向において較正ユーザーインターフェースオブジェクトを移動させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへ示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of a calibrated user interface object according to a detected change in the orientation of one or more cameras in a physical environment is within the field of view of the one or more cameras. Includes moving the calibrated user interface object in the direction determined according to the direction of the change detected in (eg, the speed of movement of the physical environment) (eg, the device moves the device from right to left). To rotate the calibrated user interface object clockwise and to move the calibrated user interface object counterclockwise for moving the device from left to right, or to move the device from right to left Rotate the calibrated user interface object counterclockwise for, and rotate the calibrated user interface object clockwise for moving the device from left to right) (17036). Moving a calibrated user interface object in a direction determined according to a change in the attitude of the device camera (eg, moving the calibrated user interface object is a guide for moving the device required for calibration. Provide visual feedback (to show the user that there is). Providing improved visual feedback to the user (eg, by helping the user provide the appropriate input and reducing user error when operating / interacting with the device). Improve device usability and make user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

図17A~図17Dにおける動作が説明されている特定の順序は、単なる例であり、説明された順序は、動作が実行され得る唯一の順序を示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、18000、19000、及び20000)に関して本明細書で説明された他の処理の詳細はまた、図17A~図17Dに関して上述された方法17000に対して類似した方式でも適用可能であることが注目されるべきである。例えば、方法17000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、18000、19000、及び20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It should be understood that the particular order in which the actions in FIGS. 17A-17D are described is merely an example and the described order is not intended to indicate the only order in which the actions can be performed. Is. Those of skill in the art will recognize various techniques for reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 800, 900, 1000, 16000, 18000, 19000, and 20000) are also illustrated. It should be noted that a method similar to the method 17000 described above with respect to 17A-17D is also applicable. For example, the contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / or animations described above with reference to Method 17000 are optionally other methods described herein. Contact, input, virtual object, user interface area, visual field, tactile output, movement, and as described herein with reference to (eg, methods 800, 900, 1000, 16000, 18000, 19000, and 20000). / Or have one or more of the features consisting of animation. For the sake of brevity, these details are not repeated herein.

図18A~図18Iは、軸の周りの仮想オブジェクトの回転を拘束する方法18000を例示するフロー図である。方法18000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)と、1つ以上の入力デバイス(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)と、1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側面上の1つ以上の背面カメラ)と、1つ以上のカメラを含むデバイスの姿勢(例えば、周囲の物理的環境に対する向き(例えば、回転、ヨー、及び/又は、傾斜角度)及び位置)における変化を検出するための1つ以上の姿勢センサ(たとえば、加速度計、ジャイロスコープ、及び/又は、磁力計)と、を有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。方法18000におけるいくつかの動作は、オプションで、組み合わされるか、及び/又は、いくつかの動作の順序が、オプションで、変更される。 18A-18I are flow diagrams illustrating a method 18000 for constraining the rotation of a virtual object around an axis. Method 18000 serves as both a display generation component (eg, a display, a projector, a head-up display, etc.) and one or more input devices (eg, a touch-sensitive surface, or a display-generating component and a touch-sensitive surface). Display) and one or more cameras (eg, one or more rear cameras on the side of the device opposite the display and touch-sensitive surface) and the orientation of the device including one or more cameras (eg, surroundings). One or more attitude sensors (eg, accelerometers, gyroscopes, and / or magnetic meters) for detecting changes in orientation (eg, rotation, yaw, and / or tilt angle) and position with respect to the physical environment. ), And an electronic device (eg, device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some actions in method 18000 are optionally combined and / or the order of some actions is optionally changed.

デバイスは、表示生成コンポーネントによって、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース又は拡張現実ユーザーインターフェース)内に、仮想三次元オブジェクトの第1の視点の表現を表示する(18002)。例えば、図13Bに図示されるように、仮想オブジェクト11002が、ステージングユーザーインターフェース6010内に図示される。 The device displays a first perspective representation of a virtual three-dimensional object within a first user interface area (eg, a staging user interface or an augmented reality user interface) by means of a display generation component (18002). For example, as illustrated in FIG. 13B, the virtual object 11002 is illustrated in the staging user interface 6010.

ディスプレイ上の第1のユーザーインターフェース領域内に、視覚的な三次元オブジェクトの第1の視点の表現を表示している間、デバイスは、仮想三次元オブジェクトの第1の視点から見えない仮想三次元オブジェクトの一部を表示するために、ディスプレイ(例えば、タッチスクリーンディスプレイのプレーンのような表示生成コンポーネントに対応する表示面)に対して仮想三次元オブジェクトを回転させるための要求に対応する第1の入力(例えば、タッチ感知面における(例えば、1本又は2本の指の接触による)スワイプ入力、又は、旋回入力(例えば、2本指回転、又は、別の指接触の周りの1本指の接触旋回))を検出する(18004)。例えば、この要求は、図13B~図13Cに関して説明されるような入力、又は、図13E~図13Fに関して説明されるような入力である。 While displaying a representation of the first viewpoint of a visual three-dimensional object within the first user interface area on the display, the device is invisible from the first viewpoint of the virtual three-dimensional object. A first response to a request to rotate a virtual 3D object with respect to a display (eg, a display surface corresponding to a display generation component such as the plane of a touch screen display) to display a portion of the object. Input (eg, swipe input (eg, by one or two finger contact) on the touch sensing surface, or swivel input (eg, two finger rotation, or one finger around another finger contact) Contact turning)) is detected (1804). For example, this request is an input as described for FIGS. 13B-13C, or an input as described for FIGS. 13E-13F.

第1の入力を検出することに応じて(18006)、第1の入力が、第1の軸(例えば、x軸のような水平方向におけるディスプレイのプレーン(例えば、x-y面)に平行である第1の軸)の周りに三次元オブジェクトを回転させるための要求に対応しているとの判定にしたがって、デバイスは、第1の入力の大きさ(例えば、タッチ感知面(例えば、ディスプレイのx-y面に対する対応するx-y面)の垂直軸(例えば、y軸)に沿ったスワイプ入力の速度及び/又は距離)に基づいて判定された量、第1の軸に対して仮想三次元オブジェクトを回転させ、第1の軸に対する閾値回転量よりも大きい、仮想三次元オブジェクトの回転を限定する移動に対する制限によって拘束される(例えば、第1の軸の周りの回転は、第1の軸の周り+/-30度の範囲に限定され、この範囲を超える回転は、第1の入力の大きさに関わらず禁止される)。例えば、図13E~図13Gに関して説明されるように、仮想オブジェクト11002の回転は、制限によって拘束される。第1の入力が、第1の軸とは異なる第2の軸(例えば、y軸のような垂直方向におけるディスプレイのプレーン(例えば、x-y面)に平行である第2の軸)の周りに三次元オブジェクトを回転させるための要求に対応するとの判定にしたがって、デバイスは、仮想三次元オブジェクトを、第1の入力の大きさに基づいて判定された量(例えば、タッチ感知面(例えば、ディスプレイのx-y面に対する対応するx-y面)の水平軸(例えば、x軸)に沿ったスワイプ入力の速度及び/又は距離)、第2の軸に対して回転させ、それぞれの閾値を超える大きさを有する入力については、デバイスは、閾値回転量よりも多く、第2の軸に対して仮想三次元オブジェクトを回転させる。いくつかの実施形態では、第2の軸に対する回転のために、デバイスは、第1の軸に対する回転に対する拘束よりも大きな拘束を回転に課す(例えば、三次元オブジェクトは、30度の代わりに60度回転することを許容される)。いくつかの実施形態では、第2の軸に対する回転のために、デバイスは、回転に対して拘束を課さず、これによって、三次元オブジェクトは、第2の軸の周りに自由に回転できるようになる(例えば、1つ以上の接触の移動を含む速い又は長いスワイプ入力のような十分高い大きさを伴う入力について、三次元オブジェクトは、第2の軸に対して360度よりも大きく回転することができる)。例えば、図13E~図13Gに関して説明された入力に応じた、x軸の周りの仮想オブジェクト11002の回転量よりも大きな、仮想オブジェクト11002の回転量が、図13B~図13Cに関して説明される入力に応じて、y軸の周りで生じる。入力が、オブジェクトを、第1の軸の周り、又は、第2の軸の周りに回転させるための要求であるかに依存して、オブジェクトを、閾値量へ拘束された量、回転させるか、又は、オブジェクトを、閾値量よりも多く回転させるかを決定することは、異なるタイプの回転動作を制御する機能を改善する。表示された追加の制御を用いて、ユーザーインターフェースを混乱させることなく追加の制御オプションを提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In response to detecting the first input (18006), the first input is parallel to the first axis (eg, the plane of the display in a horizontal direction such as the x-axis (eg, the xy plane)). According to the determination that it corresponds to the requirement to rotate the 3D object around a first axis), the device determines the size of the first input (eg, the touch sensitive surface (eg, the display)). Amount determined based on the swipe input speed and / or distance along the vertical axis (eg, y-axis) of the corresponding xy-plane with respect to the xy-plane), virtual 3D with respect to the first axis. Rotate the original object and be constrained by restrictions on movement that limits the rotation of the virtual 3D object, which is greater than the threshold rotation amount with respect to the first axis (eg, rotation around the first axis is the first. It is limited to a range of +/- 30 degrees around the axis, and rotation beyond this range is prohibited regardless of the size of the first input). For example, as described with respect to FIGS. 13E-13G, the rotation of virtual object 1102 is constrained by restrictions. Around a second axis where the first input is different from the first axis (eg, a second axis parallel to the display plane (eg, xy plane) in a vertical direction, such as the y-axis). According to the determination that it corresponds to the requirement to rotate the 3D object, the device attaches the virtual 3D object to an amount determined based on the size of the first input (eg, a touch-sensitive surface (eg, a touch sensitive surface). The speed and / or distance of the swipe input along the horizontal axis (eg, x-axis) of the corresponding xy-plane with respect to the xy-plane of the display), rotated with respect to the second axis, and set the respective thresholds. For inputs larger than the magnitude, the device rotates the virtual 3D object with respect to the second axis, which is greater than the threshold rotation amount. In some embodiments, due to rotation about the second axis, the device imposes a greater constraint on the rotation than the constraint on rotation about the first axis (eg, a 3D object has 60 instead of 30 degrees). Allowed to rotate degrees). In some embodiments, due to rotation about the second axis, the device does not impose any constraints on the rotation, which allows the 3D object to rotate freely around the second axis. For inputs with sufficiently high magnitude, such as fast or long swipe inputs involving movement of one or more contacts, the 3D object rotates more than 360 degrees with respect to the second axis. Can be done). For example, the amount of rotation of the virtual object 11002, which is greater than the amount of rotation of the virtual object 11002 around the x-axis according to the inputs described with respect to FIGS. 13E-13G, is the input described with respect to FIGS. 13B-13C. Accordingly, it occurs around the y-axis. Whether the object is rotated by an amount constrained to a threshold amount, depending on whether the input is a request to rotate the object around the first axis or around the second axis. Alternatively, determining whether the object is rotated more than the threshold amount improves the ability to control different types of rotational movements. Providing additional control options with the additional controls displayed without confusing the user interface enhances the usability of the device and makes the user device interface more efficient.

いくつかの実施形態では、第1の入力を検出することに応じて(18008)、第1の入力が、第1の方向(例えば、y方向、タッチ感知面における垂直方向)におけるタッチ感知面を介した接触の第1の移動を含んでおり、第1の方向における接触の第1の移動が、第1の軸に対して仮想オブジェクトの表現を回転させるための第1の基準を満たしているとの判定であって、第1の基準は、第1の基準が満たされるために、第1の入力が、第1の方向における第1の閾値移動量よりも多くを含むとの要件を含む(例えば、デバイスは、デバイスが、第1の方向において、第1の閾値移動量よりも多くを検出するまで、第1の軸の周りの三次元オブジェクトの回転を開始しない)、判定にしたがって、デバイスは、第1の入力が、三次元オブジェクトを第1の軸(例えば、x軸、ディスプレイに平行な水平軸、又は、仮想オブジェクトを介した水平軸)の周りに回転させるための要求に対応していると判定し、第1の入力が、第2の方向(例えば、x方向、タッチ感知面における水平方向)におけるタッチ感知面にわたる接触の第2の移動を含んでおり、第2の方向における接触の第2の移動が、第2の軸に対して仮想オブジェクトの表現を回転させるための第2の基準を満たしているとの判定であって、第2の基準は、第2の基準が満たされるために、第1の入力が、第2の方向における第2の閾値移動量よりも多くを含むとの要件を含む(例えば、デバイスは、デバイスが、第2の方向において、第2の閾値移動量よりも多くを検出するまで、第2の軸の周りの三次元オブジェクトの回転を開始しない)、判定にしたがって、デバイスは、第1の入力が、三次元オブジェクトを第2の軸(例えば、ディスプレイに平行な垂直軸、又は、仮想オブジェクトを介した垂直軸)の周りに回転させるための要求に対応していると判定し、第1の閾値は、第2の閾値よりも大きい(例えば、ユーザーは、垂直軸の周りの回転をトリガする(例えば、オブジェクトを回転させる)ために水平方向にスワイプするのではなく、水平軸の周りの回転をトリガする(例えば、オブジェクトをユーザーに対して前方又は後方に傾ける)ために、垂直方向に多くの量スワイプする必要がある)。オブジェクトを、閾値量へ拘束された量、回転させるか、又は、オブジェクトを、閾値量よりも多く、回転させるかを判定することは、入力が、第1の軸又は第2の軸の周りにオブジェクトを回転させるための要求であるか否かに依存して、オブジェクトを回転させるための要求に対応する入力に応じて、異なるタイプの回転動作を制御する機能を改善する。表示された追加の制御を用いてユーザーインターフェースを混乱させることなく追加の制御オプションを提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In some embodiments, in response to detecting the first input (18008), the first input has a touch-sensitive surface in the first direction (eg, y-direction, vertical to the touch-sensitive surface). The first movement of the contact through is included, and the first movement of the contact in the first direction meets the first criterion for rotating the representation of the virtual object with respect to the first axis. The first criterion includes the requirement that the first input contains more than the first threshold movement amount in the first direction in order for the first criterion to be satisfied. (For example, the device does not start rotating the three-dimensional object around the first axis until the device detects more than the first threshold movement in the first direction), according to the determination. The device responds to the requirement that the first input rotate the three-dimensional object around the first axis (eg, the x-axis, the horizontal axis parallel to the display, or the horizontal axis through the virtual object). The first input comprises a second movement of contact across the touch-sensitive surface in a second direction (eg, x-direction, horizontal in the touch-sensitive surface). The second movement of the contact in is determined to meet the second criterion for rotating the representation of the virtual object with respect to the second axis, the second criterion being the second criterion. Includes the requirement that the first input comprises more than the second threshold movement amount in the second direction (eg, the device is the device in which the device is in the second direction). Does not start rotating the 3D object around the 2nd axis until it detects more than the threshold movement amount of), according to the determination, the device receives the 1st input and the 3D object on the 2nd axis. It is determined that it corresponds to the requirement to rotate around (eg, a vertical axis parallel to the display, or a vertical axis via a virtual object), and the first threshold is greater than the second threshold. (For example, the user does not swipe horizontally to trigger a rotation around the vertical axis (eg, rotate the object), but triggers a rotation around the horizontal axis (eg, the object to the user). You need to swipe a lot in the vertical direction to (tilt forward or backward). Determining whether to rotate an object by an amount constrained to a threshold amount or to rotate an object more than a threshold amount means that the input is around a first axis or a second axis. Improves the ability to control different types of rotation behavior depending on the input corresponding to the request to rotate the object, depending on whether it is a request to rotate the object. Providing additional control options without confusing the user interface with the additional controls displayed enhances the usability of the device and makes the user device interface more efficient.

いくつかの実施形態(18010)では、第1の軸に対する仮想三次元オブジェクトの回転は、第1の入力の第1の入力パラメータ(例えば、スワイプ距離、又はスワイプ速度)の特徴値と、第1の軸の周りの仮想三次元オブジェクトへ適用された回転量との間の第1の一致角度で生じ、第2の軸に対する仮想三次元オブジェクトの回転は、第2の入力ジェスチャの第1の入力パラメータ(例えば、スワイプ距離、又はスワイプ速度)の特徴値と、第2の軸の周りの仮想三次元オブジェクトへ適用された回転量との間の第2の一致角度で生じ、第1の一致角度は、第2の一致角度よりも、第1の入力パラメータに対する仮想三次元オブジェクトの、より少ない回転しか含まない(例えば、第1の軸の周りの回転は、第2の軸の周りの回転よりも、高い摩擦又は引っ掛かりを有する)。例えば、仮想オブジェクト11002の第1の回転量は、(図13B~図13Cに関して説明されるように、)y軸の周りの回転のための、スワイプ距離dのスワイプ入力に応じて生じ、第1の回転量よりも少ない、仮想オブジェクト11002の第2の回転量は、(図13E~図13Gに関して説明されるように、)x軸の周りの回転のための、スワイプ距離dのスワイプ入力に応じて生じる。入力に応じて、より多い、又は、より少ない角度回転で、仮想オブジェクトを回転させることは、入力が、第1の軸又は第2の軸の周りにオブジェクトを回転させるための要求であるか否かに依存してオブジェクトを回転させるための要求に対応する入力に応じて、異なるタイプの回転動作を制御する機能を改善する。表示された追加の制御を用いてユーザーインターフェースを混乱させることなく追加の制御オプションを提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In some embodiments (18010), the rotation of the virtual 3D object with respect to the first axis is the feature value of the first input parameter (eg, swipe distance, or swipe speed) of the first input and the first. Occurs at the first coincidence angle with the amount of rotation applied to the virtual 3D object around its axis, and the rotation of the virtual 3D object with respect to the 2nd axis is the first input of the 2nd input gesture. It occurs at the second coincidence angle between the feature value of the parameter (eg, swipe distance, or swipe speed) and the amount of rotation applied to the virtual 3D object around the second axis, and the first coincidence angle. Contains less rotation of the virtual 3D object for the first input parameter than the second match angle (eg, rotation around the first axis is more than rotation around the second axis). Also has high friction or catching). For example, a first amount of rotation of virtual object 11002 occurs in response to a swipe input of swipe distance d1 for rotation about the y-axis (as described with respect to FIGS. 13B-13C). The second amount of rotation of the virtual object 11002, which is less than the amount of rotation of 1 , is a swipe input of swipe distance d1 for rotation around the x-axis (as described with respect to FIGS. 13E-13G). Occurs according to. Rotating a virtual object with more or less angular rotation, depending on the input, is whether the input is a requirement to rotate the object around the first or second axis. Improves the ability to control different types of rotation behavior depending on the input corresponding to the request to rotate the object depending on the crab. Providing additional control options without confusing the user interface with the additional controls displayed enhances the usability of the device and makes the user device interface more efficient.

いくつかの実施形態では、デバイスは、第1の入力の終了を検出する(例えば、入力は、タッチ感知面上の1つ以上の接触の移動を含み、第1の入力の終了の検出は、タッチ感知面からの1つ以上の接触のリフトオフを検出することを含む)(18012)。第1の入力の終了を検出した後(例えば、検出に応じて)、デバイスは、入力の終了を検出する前に、第1の入力の大きさに基づいて(例えば、接触のリフトオフの直前の、接触の移動の速度に基づいて)、三次元オブジェクトの回転を継続する(18014)。これは、三次元オブジェクトが第1の軸に対して回転しているとの判定にしたがって、第1の軸に対するオブジェクトの回転を、第1の軸に対する三次元オブジェクトの回転の大きさに比例した第1の量、遅くする(例えば、第1の摩擦係数を用いて、擬似的な摩擦のような第1の擬似的な物理的パラメータに基づいて、第1の軸の周りの三次元オブジェクトの回転を遅くする)ことと、三次元オブジェクトが第2の軸に対して回転しているとの判定にしたがって、第2の軸に対するオブジェクトの回転を、第2の軸に対する三次元オブジェクトの回転の大きさに比例した第2の量、遅くする(例えば、第1の摩擦係数よりも小さな第2の摩擦係数を用いて、擬似的な摩擦のような第2の擬似的な物理的パラメータに基づいて、第2の軸の周りの三次元オブジェクトの回転を遅くする)こととを含み、第2の量は、第1の量とは異なる。例えば、図13C~図13Dでは、仮想オブジェクト11002は、図13B~図13Cに関して説明されるように、仮想オブジェクト11002の回転をもたらした接触13002のリフトオフ後、回転を継続する。いくつかの実施形態では、第2の量は、第1の量よりも大きい。いくつかの実施形態では、第2の量は、第1の量未満である。入力の終了の検出後、仮想オブジェクトの回転を、第1の量又は第2の量、遅くすることは、入力が、第1の軸又は第2の軸の周りにオブジェクトを回転させるための要求であるか否かに基づいて、第1の軸及び第2の軸の周りの回転のために、異なる方式で回転動作が仮想オブジェクトへ適用されたことを示す視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、プレーンに対応する第2の向きにおけるオブジェクトの配置前に、ユーザーが適切な入力を提供することと、仮想オブジェクトを操作するために入力を提供する試みを回避することとを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects the end of the first input (eg, the input involves the movement of one or more contacts on the touch-sensitive surface, and the detection of the end of the first input is. Detecting lift-off of one or more contacts from the touch-sensitive surface) (18012). After detecting the end of the first input (eg, depending on the detection), the device is based on the magnitude of the first input (eg, just before the lift-off of the contact) before detecting the end of the input. Continues to rotate the 3D object (based on the speed of movement of the contact) (18014). This was proportional to the magnitude of the rotation of the 3D object with respect to the 1st axis, according to the determination that the 3D object was rotating with respect to the 1st axis. The first amount slows down (eg, using the first friction coefficient, based on the first pseudo-physical parameters such as pseudo-friction, of the 3D object around the first axis. (Slow down the rotation) and, according to the determination that the 3D object is rotating with respect to the 2nd axis, the rotation of the object with respect to the 2nd axis and the rotation of the 3D object with respect to the 2nd axis. A second amount proportional to magnitude, slowing down (eg, using a second friction coefficient smaller than the first friction coefficient, based on a second pseudo-physical parameter such as pseudo-friction. The second quantity is different from the first quantity, including slowing the rotation of the 3D object around the second axis). For example, in FIGS. 13C-13D, virtual object 11002 continues to rotate after lift-off of contact 13002, which caused rotation of virtual object 11002, as described with respect to FIGS. 13B-13C. In some embodiments, the second amount is greater than the first amount. In some embodiments, the second amount is less than the first amount. After detecting the end of the input, slowing the rotation of the virtual object by a first or second amount is a requirement for the input to rotate the object around the first or second axis. Provides visual feedback indicating that the rotation motion has been applied to the virtual object in different ways due to the rotation around the first axis and the second axis, based on whether or not. Providing improved visual feedback to the user (eg, to provide the user with the appropriate input and to manipulate the virtual object prior to placing the object in the second orientation corresponding to the plane). By helping to avoid attempts to provide input), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、第1の入力の終了を検出する(例えば、入力は、タッチ感知面における1つ以上の接触の移動を含み、第1の入力の終了を検出することは、タッチ感知面からの1つ以上の接触のリフトオフを検出することを含む)(18016)。第1の入力の終了を検出した後(例えば、検出に応じて)(18018)、三次元オブジェクトが、第1の軸に対して、それぞれの回転閾値を超えて回転したとの判定にしたがって、デバイスは、第1の軸に対する三次元オブジェクトの回転の少なくとも一部を反転させ、三次元オブジェクトが、第1の軸に対して、それぞれの回転閾値を超えて回転していないとの判定にしたがって、デバイスは、第1の軸に対する三次元オブジェクトの回転を反転させることを控える(例えば、第1の軸に対する三次元オブジェクトの回転を停止させる、及び/又は、入力の終了を検出する前、入力の大きさによって判定された大きさ、入力の動きの方向に、第1の軸に対して三次元オブジェクトの回転を継続させる)。例えば、図13E~図13Gを参照して説明されるように、仮想オブジェクト11002を、回転閾値を超えて回転させた後、図13G~図13Hによって例示されるように、仮想オブジェクト11002の回転が反転される。いくつかの実施形態では、三次元オブジェクトの回転を反転させる量は、三次元オブジェクトがそれぞれの回転閾値をどれくらい超えたのかに基づいて決定される(例えば、三次元オブジェクトの回転は、もしそれぞれの回転閾値を超えて回転した三次元オブジェクトの回転の量がより小さく、もしそれぞれの回転閾値を超えて回転した三次元オブジェクトの回転の量が、第1の軸に対して回転を反転させる小さな量と比べて、より大きいのであれば、第1の軸に対して、より大きな量、反転される)。いくつかの実施形態では、回転の反転は、より大きな力で引っ張る弾性効果のような擬似的な物理パラメータによって駆動され、更に、三次元オブジェクトは、第1の軸に対するそれぞれの回転閾値を超えて回転される。いくつかの実施形態では、回転の反転は、それぞれの回転閾値を超えて回転された、第1の軸に対する回転の方向に基づいて判定された回転の方向にある(例えば、三次元オブジェクトが回転され、オブジェクトの頂部が、ディスプレイ内へ戻ったのであれば、回転の反転は、オブジェクトの頂部を、ディスプレイ外側へ進めて回転させ、オブジェクトの頂部が、ディスプレイ外側へ進められて回転されるように、三次元オブジェクトが回転されたのであれば、回転の反転は、オブジェクトの頂部を、ディスプレイ内へ戻して回転させ、三次元オブジェクトが回転され、オブジェクトの右側が、ディスプレイ内に戻ったのであれば、回転の反転は、ディスプレイ外側へ進むオブジェクトの右側を回転させ、及び/又は、オブジェクトの左側が、ディスプレイ外側へ進められて回転されるように、三次元オブジェクトが回転されたのであれば、回転の反転は、オブジェクトの左側を、ディスプレイ内へ戻して回転させる)。いくつかの実施形態では、例えば、第2の軸に対する回転が、それぞれの角度範囲へ拘束されている場合、第2の軸の周りの回転のために、同様のラバーバンディング(例えば、回転の条件付き反転)が実行される。いくつかの実施形態では、例えば、三次元オブジェクトがデバイスによって360度回転することを許可されるように、第2の軸に対する回転が拘束されていない場合、(例えば、デバイスは、第2の軸に対する回転について回転閾値を課さないので)第2の軸の周りの回転のためにラバーバンディングは実行されない。入力の終了を検出した後、第1の軸に関して三次元オブジェクトの回転の少なくとも一部を反転すること、又は、第1の軸に関して三次元オブジェクトの回転の一部を反転することを控えることは、オブジェクトが回転閾値を超えて回転したか否かに依存して、仮想オブジェクトの回転へ適用可能な回転閾値を示す視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが、回転閾値を超えて仮想オブジェクトを回転させるための入力を提供する試みを回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects the end of the first input (eg, the input involves the movement of one or more contacts on the touch-sensitive surface and may detect the end of the first input. , Including detecting lift-off of one or more contacts from the touch-sensitive surface) (18016). After detecting the end of the first input (eg, depending on the detection) (18018), according to the determination that the 3D object has rotated beyond its respective rotation threshold with respect to the first axis. The device inverts at least a portion of the rotation of the 3D object with respect to the 1st axis, according to the determination that the 3D object has not rotated beyond its respective rotation threshold with respect to the 1st axis. , The device refrains from reversing the rotation of the 3D object with respect to the 1st axis (eg, stopping the rotation of the 3D object with respect to the 1st axis and / or inputting before detecting the end of the input. Continue the rotation of the 3D object with respect to the first axis in the direction of the input movement, the size determined by the size of). For example, as illustrated with reference to FIGS. 13E-13G, after the virtual object 1102 is rotated beyond the rotation threshold, the rotation of the virtual object 1102 is as illustrated by FIGS. 13G-13H. Inverted. In some embodiments, the amount of inversion of the rotation of a three-dimensional object is determined based on how much the three-dimensional object exceeds its respective rotation threshold (for example, the rotation of a three-dimensional object is of its own). The amount of rotation of a three-dimensional object rotated beyond the rotation threshold is smaller, and the amount of rotation of the three-dimensional object rotated beyond each rotation threshold is a small amount that reverses the rotation with respect to the first axis. If it is larger than, it is inverted by a larger amount with respect to the first axis). In some embodiments, the rotation reversal is driven by pseudo-physical parameters such as elastic effects that pull with greater force, and the 3D object is further beyond its respective rotation threshold with respect to the first axis. It is rotated. In some embodiments, the rotation reversal is in the direction of rotation determined based on the direction of rotation with respect to the first axis, rotated beyond each rotation threshold (eg, a three-dimensional object is rotated). And if the top of the object has returned to the inside of the display, the rotation reversal will cause the top of the object to be advanced and rotated outside the display, and the top of the object to be advanced and rotated outside the display. , If the 3D object has been rotated, the rotation inversion will rotate the top of the object back into the display, if the 3D object has been rotated and the right side of the object has returned to the display. , Rotation reversal rotates the right side of the object moving out of the display and / or if the three-dimensional object is rotated so that the left side of the object is moved out of the display and rotated. Flip the left side of the object back into the display and rotate it). In some embodiments, for example, if rotation with respect to the second axis is constrained to their respective angular range, similar rubber banding (eg, conditions of rotation) for rotation around the second axis. Inversion) is executed. In some embodiments, for example, if the rotation with respect to the second axis is not constrained so that the 3D object is allowed to rotate 360 degrees by the device (eg, the device is the second axis). No rubber banding is performed due to rotation around the second axis (because it does not impose a rotation threshold for rotation against). After detecting the end of the input, refraining from flipping at least part of the rotation of the 3D object with respect to the first axis, or refraining from flipping part of the rotation of the 3D object with respect to the first axis. , Provides visual feedback indicating the rotation threshold applicable to the rotation of a virtual object, depending on whether the object has rotated beyond the rotation threshold. Providing improved visual feedback to the user (eg, by helping the user avoid attempts to provide input to rotate the virtual object beyond the rotation threshold) of the device. Improves operability and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態(18020)では、第1の入力が、三次元オブジェクトを、第1の軸及び第2の軸とは異なる第3の軸(例えば、z軸のような、ディスプレイのプレーン(例えば、x-y面)に垂直な第3の軸)の周りに回転させるための要求に対応するとの判定にしたがって、デバイスは、仮想三次元オブジェクトを第3の軸に対して回転させることを控える(例えば、z軸の周りの回転が禁止され、オブジェクトをz軸の周りに回転させるための要求は、デバイスによって無視される)。いくつかの実施形態では、デバイスは、アラート(例えば、入力の失敗を示す触知出力)を提供する。回転入力が、仮想オブジェクトを第3の軸の周りに回転させるための要求に対応しているとの判定にしたがって仮想オブジェクトの回転を控えることは、第3の軸の周りの回転が制限されていることを示す視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが仮想オブジェクトを第3の軸の周りに回転させるための入力を提供する試みを回避することを支援することによって)、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (18020), the first input makes the 3D object a plane of display, such as a third axis (eg, the z-axis) that is different from the first and second axes. For example, according to the determination that it corresponds to the requirement to rotate around a third axis) perpendicular to the xy plane), the device may rotate the virtual 3D object with respect to the third axis. Refrain (eg, rotation around the z-axis is prohibited and the request to rotate the object around the z-axis is ignored by the device). In some embodiments, the device provides an alert (eg, a tactile output indicating an input failure). Refraining from rotating the virtual object according to the determination that the rotation input corresponds to the request to rotate the virtual object around the third axis limits the rotation around the third axis. Provide visual feedback to indicate that you are. Providing improved visual feedback to the user (eg, by helping the user avoid attempts to provide input to rotate the virtual object around a third axis) Improves operability and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に、仮想三次元オブジェクトの第1の視点の表現を表示しながら、仮想三次元オブジェクトによって投じられた影の表現を表示する(18022)。デバイスは、第1の軸及び/又は第2の軸に対する仮想三次元オブジェクトの回転にしたがって、影の表現の形状を変化させる。例えば、仮想オブジェクト11002の影13006の形状は、仮想オブジェクト11002が回転すると、図13B~図13Fから変化する。いくつかの実施形態では、仮想オブジェクトの所定の底側をサポートするステージングユーザーインターフェース内に、目に見えない基本プレーンに対する仮想オブジェクトの現在の向きを示すために、影がシフトし、形状を変化させる。いくつかの実施形態では、仮想三次元オブジェクトの表面は、ステージングユーザーインターフェース内に表現される仮想空間における所定の方向に配置された擬似的な光源からの光を反射するように見える。仮想オブジェクトの回転にしたがって影の形状を変化させることは、(例えば、仮想オブジェクトが向けられた仮想的なプレーン(例えば、ステージングビューのステージ)を示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは(例えば、第1の軸又は第2の軸の周りに回転させるためのスワイプ入力のための適切な命令をユーザーが判定することを支援することによって)、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device is thrown by the virtual 3D object, displaying a representation of the first viewpoint of the virtual 3D object within the first user interface area (eg, the staging user interface). Display the representation of the shadow (18022). The device changes the shape of the shadow representation as the virtual 3D object rotates with respect to the first axis and / or the second axis. For example, the shape of the shadow 13006 of the virtual object 11002 changes from FIGS. 13B to 13F when the virtual object 11002 rotates. In some embodiments, shadows shift and change shape to indicate the current orientation of the virtual object with respect to the invisible base plane within a staging user interface that supports a given bottom side of the virtual object. .. In some embodiments, the surface of the virtual 3D object appears to reflect light from a pseudo-light source located in a predetermined direction in the virtual space represented within the staging user interface. Changing the shape of the shadow as the virtual object rotates provides visual feedback (eg, indicating the virtual plane to which the virtual object is directed (eg, the stage in the staging view)). Providing improved visual feedback to the user (eg, helping the user determine the appropriate instruction for swipe input to rotate around the first or second axis). To improve the usability of the device and make the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域内で、仮想三次元オブジェクトを回転させている間(18024)、仮想三次元オブジェクトの所定の底部を明示する第2の視点とともに、仮想三次元オブジェクトが表示されるとの判定にしたがって、デバイスは、仮想三次元オブジェクトの第2の視点の表現とともに、影の表現の表示を控える。例えば、デバイスは、仮想オブジェクトが(例えば、図13G~図13Iに関して説明されるように、)下方から見られた場合、仮想オブジェクトの影を表示しない。仮想オブジェクトの底部が表示されているとの判定にしたがって、仮想オブジェクトの影の表示を控えることは、(例えば、仮想プレーン(例えば、ステージングビューのステージ)にもはや対応していない位置へオブジェクトが回転したことを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, within the first user interface area, while rotating the virtual 3D object (18024), with a second perspective that reveals a given bottom of the virtual 3D object, virtual 3D. According to the determination that the object is displayed, the device refrains from displaying the shadow representation as well as the second viewpoint representation of the virtual 3D object. For example, the device does not display the shadow of the virtual object when viewed from below (eg, as described with respect to FIGS. 13G-13I). By refraining from displaying the shadow of the virtual object according to the determination that the bottom of the virtual object is displayed (for example, the object is rotated to a position that no longer corresponds to the virtual plane (for example, the stage of the staging view). Provide visual feedback (indicating that you have done). Providing improved visual feedback to the user enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングビュー)内で、仮想三次元オブジェクトを回転させた後、デバイスは、第1のユーザーインターフェース領域における仮想三次元オブジェクトをリセットするための要求に対応する第2の入力を検出する(例えば、第2の入力は、第1のユーザーインターフェース領域における二重タップである)(18026)。第2の入力を検出することに応じて、デバイスは、第1のユーザーインターフェース領域における仮想三次元オブジェクトの所定の元の視点(例えば、第1の視点、又は、第1の視点とは異なるのデフォルトの開始視点(例えば、第1の視点は、ステージングユーザーインターフェース内に、ユーザー操作後に表示される視点である))の表現を(例えば、仮想オブジェクトの回転及びリサイズによって)表示する(例えば、二重タップに応じて、デバイスは、仮想オブジェクトの向きを、所定の元の向き(例えば、ユーザーにプレーンする正面側、所定の基本プレーンにとどまる底面側では直立)へリセットする)(18028)。例えば、図13I~図13Jは、仮想オブジェクト11002の視点を、(図13B~図13Gに関して説明される回転入力の結果として)アラートされた視点から、(図13Aに図示された視点仮想オブジェクト11002と同じである)図13Jにおける元の視点へ変化させる入力を例示する。いくつかの実施形態では、仮想三次元オブジェクトをリセットする命令に対応する第2の入力を検出することに応じて、デバイスはまた、仮想三次元オブジェクトのデフォルト表示サイズを反映させるために、仮想三次元オブジェクトをリサイズする。いくつかの実施形態では、二重タップ入力は、ステージングユーザーインターフェースにおける仮想オブジェクトの向き及びサイズの両方をリセットする一方、二重タップ入力は、サイズのみをリセットするが、拡張現実ユーザーインターフェースにおける仮想オブジェクトの向きをリセットしない。いくつかの実施形態では、デバイスは、拡張現実ユーザーインターフェース内の仮想オブジェクトのサイズをリセットするために、二重タップが、仮想オブジェクトへ向けられることを必要とする一方、デバイスは、二重タップが仮想オブジェクトにおいて検出され、二重タップが仮想オブジェクトの周りで検出されることに応じて、仮想オブジェクトの向き及びサイズをリセットする。拡張現実ビューでは、1本指のスワイプが、(例えば、ステージングビューにおけるものとは異なり)仮想オブジェクトを回転させるのではなく、仮想オブジェクトをドラッグする。仮想オブジェクトをリセットするための要求を検出することに応じて、仮想オブジェクトの所定の元の視点を表示することは、(例えば、オブジェクトの特性を調節するために提供された入力が、所定の元の視点へいつオブジェクトを返すのかを推定することをユーザーへ要求するのではなく、オブジェクトをリセットするためのオプションを提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after rotating the virtual three-dimensional object within the first user interface area (eg, staging view), the device resets the virtual three-dimensional object in the first user interface area. Detects a second input corresponding to the request (eg, the second input is a double tap in the first user interface area) (18026). In response to detecting the second input, the device is different from a predetermined original viewpoint (eg, first viewpoint, or first viewpoint) of the virtual three-dimensional object in the first user interface area. Display a representation of the default starting point of view (eg, the first point of view is the point of view displayed after user interaction in the staging user interface) (eg, by rotating and resizing the virtual object) (eg, two). In response to a heavy tap, the device resets the orientation of the virtual object to its original orientation (eg, upright on the front side plane to the user, upright on the bottom side that stays in the given base plane) (18028). For example, FIGS. 13I-13J refer to the viewpoint of virtual object 11002 from the alerted viewpoint (as a result of the rotation input described with respect to FIGS. 13B-13G) with the viewpoint virtual object 11002 illustrated in FIG. 13A. (Same as above) Illustrates the input that changes to the original viewpoint in FIG. 13J. In some embodiments, in response to detecting a second input corresponding to the instruction to reset the virtual 3D object, the device also has a virtual 3D object to reflect the default display size of the virtual 3D object. Resize the original object. In some embodiments, the double tap input resets both the orientation and size of the virtual object in the staging user interface, while the double tap input resets only the size, but the virtual object in the augmented reality user interface. Do not reset the orientation of. In some embodiments, the device requires a double tap to be directed at the virtual object in order to reset the size of the virtual object in the augmented reality user interface, while the device has a double tap. Resets the orientation and size of the virtual object as it is detected in the virtual object and double taps are detected around the virtual object. In augmented reality view, a one-finger swipe drags a virtual object instead of rotating it (for example, unlike in a staging view). Displaying a given original viewpoint of a virtual object in response to detecting a request to reset the virtual object (eg, the input provided to adjust the characteristics of the object is the given original). By providing an option to reset the object, rather than asking the user to estimate when to return the object to the point of view of), it improves the usability of the device and makes the user device interface more efficient. do. Reducing the number of inputs required to perform an operation enhances the usability of the device. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に仮想三次元オブジェクトを表示している間、デバイスは、仮想三次元オブジェクトをリサイズするための要求に対応する第3の入力を検出する(例えば、第3の入力は、第1のユーザーインターフェース領域上に提示された仮想オブジェクトへ向けられたピンチ又はデピンチジェスチャであり、第3の入力は、リサイズ動作を開始するための基準(例えば、(方法19000を参照して以下により詳細に説明されるような)元又は増強された基準)を満たす大きさを有する)(18030)。第3の入力を検出することに応じて、デバイスは、入力の大きさにしたがって、第1のユーザーインターフェース領域における仮想三次元オブジェクトの表現のサイズを調節する(18032)。例えば、(図6N~図6Oに関して説明されるように、)デピンチジェスチャを含む入力に応じて、仮想オブジェクト11002のサイズが減少される。いくつかの実施形態では、仮想三次元オブジェクトの表現のサイズが調節された場合、デバイスは、仮想オブジェクトの現在のズームレベルを示すためのインジケータを表示する。いくつかの実施形態では、デバイスは、第3の入力が終了すると、ズームレベルを示すインジケータの表示を停止する。オブジェクトをリサイズするための入力の大きさにしたがって、仮想オブジェクトのサイズを調節することは、(例えば、オブジェクトを、所望の量、リサイズするためのオプションを提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a virtual three-dimensional object within a first user interface area (eg, a staging user interface), the device responds to a request to resize the virtual three-dimensional object. Detect 3 inputs (eg, 3rd input is a pinch or depinch gesture directed at a virtual object presented on the 1st user interface area, 3rd input initiates resizing operation. (Eg, having a size that meets the criteria (eg, the original or enhanced criteria (as described in more detail below with reference to Method 19000))) (18030). In response to detecting the third input, the device adjusts the size of the representation of the virtual 3D object in the first user interface area according to the size of the input (18032). For example, the size of the virtual object 11002 is reduced in response to an input that includes a depinch gesture (as described with respect to FIGS. 6N-6O). In some embodiments, when the size of the representation of the virtual 3D object is adjusted, the device displays an indicator to indicate the current zoom level of the virtual object. In some embodiments, the device stops displaying an indicator indicating the zoom level when the third input is complete. Adjusting the size of a virtual object according to the size of the input for resizing the object can improve the usability of the device (eg, by providing the option to resize the object by the desired amount). Increase. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)における仮想三次元オブジェクトの表現のサイズを調節している間、デバイスは、仮想三次元オブジェクトのサイズが、仮想三次元オブジェクトの所定のデフォルトの表示サイズに達したことを検出する(18034)。仮想三次元オブジェクトのサイズが、仮想三次元オブジェクトの所定のデフォルトの表示サイズに達したことを検出することに応じて、デバイスは、仮想三次元オブジェクトが、所定のデフォルトの表示サイズで表示されていることを示すために触知出力(例えば、ディスクリートな触知出力)を生成する(18036)。図11Oは、仮想オブジェクト11002のサイズが、(例えば、図11M~図11Oに関して説明されるように、)仮想オブジェクト11002の以前に所定のサイズに達したことを検出することに応じて提供された触知出力11024の例を提供する。いくつかの実施形態では、二重タップ入力に応じて、仮想オブジェクトのサイズが、デフォルトの表示サイズへリセットされた場合、デバイスは、同じ触知出力を生成する。仮想オブジェクトのサイズが、所定のデフォルトの表示サイズに達したとの判定にしたがって触知出力を生成することは、ユーザーに(例えば、仮想オブジェクトの擬似的なされたサイズを、所定のサイズへ戻すために、さらなる入力は必要とされないことを示す)フィードバックを提供する。改善された触覚フィードバックを提供することは、(例えば、表示された情報でユーザーインターフェースを混乱させることなく、仮想オブジェクトの所定の擬似的なされた物理サイズへ到達したことを、ユーザーが知覚することを可能にする、知覚情報を提供することによって、)デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device adjusts the size of the representation of the virtual 3D object in the first user interface area (eg, the staging user interface) while the device is resized to the virtual 3D object. Detects that the object has reached a given default display size (18034). In response to detecting that the size of the virtual 3D object has reached the specified default display size of the virtual 3D object, the device displays the virtual 3D object with the specified default display size. Generates a tactile output (eg, a discrete tactile output) to indicate that it is (18036). FIG. 11O is provided in response to detecting that the size of the virtual object 1102 has reached a predetermined size prior to the virtual object 11002 (eg, as described with respect to FIGS. 11M-11O). An example of tactile output 11024 is provided. In some embodiments, the device produces the same tactile output if the size of the virtual object is reset to the default display size in response to a double tap input. Producing the tactile output according to the determination that the size of the virtual object has reached the predetermined default display size is to return the user (for example, the pseudo size of the virtual object to the predetermined size). Provides feedback (indicating that no further input is required). Providing improved haptic feedback (eg, the user perceives that the virtual object has reached a given pseudo-physical size without confusing the user interface with the displayed information. Improve the usability of the device) by providing perceptual information that enables it. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、ズームレベル(例えば、現在のズームレベルに対応する値を示すスライダ)を示す視覚的な指示が、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に表示される。仮想三次元オブジェクトの表現のサイズが調節されると、ズームレベルを示す視覚的な指示が、仮想三次元オブジェクトの表現の、調節されたサイズにしたがって調節される。 In some embodiments, visual instructions indicating the zoom level (eg, a slider indicating the value corresponding to the current zoom level) are displayed within the first user interface area (eg, the staging user interface). .. When the size of the representation of the virtual 3D object is adjusted, the visual indication of the zoom level is adjusted according to the adjusted size of the representation of the virtual 3D object.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)において仮想三次元オブジェクトの第3の視点の表現を表示している間、デバイスは、1つ以上のカメラ(例えば、デバイスに埋め込まれたカメラ)の視野を含む第2のユーザーインターフェース領域(例えば、拡張現実ユーザーインターフェース)内に、仮想三次元オブジェクトを表示することを求める要求に対応する第4の入力を検出する(18042)。第4の入力を検出することに応じて、デバイスは、表示生成コンポーネントによって、第2のユーザーインターフェース領域に含まれる1つ以上のカメラの視野の少なくとも一部の上方に、仮想オブジェクトの表現を表示し(例えば、1つ以上のカメラの視野は、第2のユーザーインターフェース領域において仮想オブジェクトを表示するための要求に応じて表示される)、1つ以上のカメラの視野は、1つ以上のカメラが配置された物理的環境の視野である(18044)。仮想オブジェクトの表現を表示することは、仮想三次元オブジェクトを、第1の軸(例えば、x軸のような水平方向において、ディスプレイのプレーン(例えば、x-y面)に平行な軸)の周りに、所定の角度へ(例えば、0度のようなデフォルトのヨー角度へ、又は、1つ以上のカメラの視野においてキャプチャされた物理的環境において検出されたプレーンに揃えられた角度へ(例えば、平行に))回転させることを含む。いくつかの実施形態では、デバイスは、第1の軸に対して、所定の角度まで徐々に回転させ、第2の軸(例えば、y軸のような垂直方向において、ディスプレイのプレーン(例えば、x-y面)に平行な軸)に対する仮想三次元オブジェクトの現在の角度を維持する三次元オブジェクトのアニメーションを表示する。1つ以上のカメラの視野において仮想オブジェクトを表示するための要求に応じて、仮想オブジェクトを、第1の軸の周りに(例えば、仮想オブジェクトを、プレーンに対して所定の向きへ位置変えするために、さらなる入力を必要とすることなく)所定の角度へ回転させることは、デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device displays one or more cameras (eg, staging user interface) while displaying a representation of a third perspective of a virtual three-dimensional object in the first user interface area (eg, staging user interface). Within a second user interface area (eg, the augmented reality user interface) that includes the field of view of the camera (camera embedded in the device), a fourth input corresponding to the request to display a virtual three-dimensional object is detected (eg). 18042). In response to detecting the fourth input, the device displays a representation of the virtual object by a display generation component above at least a portion of the field of view of one or more cameras contained in the second user interface area. (For example, the field of view of one or more cameras is displayed in response to a request to display a virtual object in a second user interface area), and the field of view of one or more cameras is one or more cameras. Is the view of the physical environment in which is placed (18044). Displaying a representation of a virtual object allows the virtual three-dimensional object to be placed around a first axis (an axis parallel to the display plane (eg, xy plane) in a horizontal direction, such as the x-axis). To a given angle (eg, to a default yaw angle such as 0 degrees, or to a plane-aligned angle detected in the physical environment captured in the field of view of one or more cameras (eg,). Includes rotating)) in parallel. In some embodiments, the device is slowly rotated to a predetermined angle with respect to the first axis and the plane of the display (eg, x) in a vertical direction, such as the y-axis. -Display an animation of the 3D object that maintains the current angle of the virtual 3D object with respect to the axis parallel to the y-plane). To reposition a virtual object around a first axis (eg, to reposition a virtual object in a predetermined orientation with respect to a plane) in response to a request to display the virtual object in the field of view of one or more cameras. Rotating to a given angle (without requiring additional input) enhances the usability of the device. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に、仮想三次元オブジェクトの第4の視点の表現を表示している間、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースへ戻す要求に対応する第5の入力を検出する(18046)。第5の入力を検出することに応じて、デバイス(18048)は、仮想三次元オブジェクトの二次元表現に対応する仮想三次元オブジェクトの視点を示すために、仮想三次元オブジェクトを(例えば、仮想三次元オブジェクトの二次元表現と、二次元ユーザーインターフェースとを表示する前に)回転させ、仮想三次元オブジェクトの二次元表現に対応するそれぞれの視点を示すために、仮想三次元オブジェクトが回転された後、仮想三次元オブジェクトの二次元表現を表示する。いくつかの実施形態では、デバイスは、仮想三次元オブジェクトの二次元表現に対応する仮想三次元オブジェクトの視点を示すために、徐々に回転する三次元オブジェクトのアニメーションを表示する。いくつかの実施形態では、デバイスはまた、二次元ユーザーインターフェースにおいて表示された仮想三次元オブジェクトの二次元表現のサイズに一致させるために、回転中又は回転後、仮想三次元オブジェクトをリサイズする。いくつかの実施形態では、二次元ユーザーインターフェースにおける二次元表現(例えば、仮想オブジェクトのサムネイル画像)の位置へ向かって移動し、その位置に落ち着く、回転された仮想三次元オブジェクトを示すために、アニメーション化された遷移が表示される。仮想三次元オブジェクトの二次元表現の表示に戻すための入力に応じて、仮想三次元オブジェクトの二次元表現に対応する視点へ仮想三次元オブジェクトを回転させることは、(例えば、表示されたオブジェクトが二次元であることを示すために)フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが、適切な入力を提供することと、二次元オブジェクトを、二次元オブジェクトの回転が利用可能ではない軸に沿って回転させるための入力を提供する試みを回避することとを支援することによって)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device is the second of the virtual 3D objects while displaying a representation of the 4th viewpoint of the virtual 3D object within the 1st user interface area (eg, the staging user interface). Detects a fifth input corresponding to the request back to the two-dimensional user interface, including the three-dimensional representation (18046). In response to detecting the fifth input, the device (18048) presents a virtual 3D object (eg, a virtual 3D object) to indicate the viewpoint of the virtual 3D object corresponding to the 2D representation of the virtual 3D object. After the 3D object is rotated to rotate (before displaying the 2D representation of the original object and the 2D user interface) to show the respective perspectives corresponding to the 2D representation of the virtual 3D object. , Display a 2D representation of a virtual 3D object. In some embodiments, the device displays an animation of a slowly rotating 3D object to show the viewpoint of the virtual 3D object that corresponds to the 2D representation of the virtual 3D object. In some embodiments, the device also resizes the virtual 3D object during or after rotation to match the size of the 2D representation of the virtual 3D object displayed in the 2D user interface. In some embodiments, an animation is used to show a rotated virtual 3D object that moves towards and settles at that position in a 2D representation (eg, a thumbnail image of a virtual object) in a 2D user interface. The converted transition is displayed. Rotating the virtual 3D object to the viewpoint corresponding to the 2D representation of the virtual 3D object in response to the input to return to the display of the 2D representation of the virtual 3D object (eg, the displayed object is Provide feedback (to show that it is two-dimensional). Providing improved visual feedback to the user (eg, the user providing the appropriate input and rotating the 2D object along an axis where rotation of the 2D object is not available). (By helping to avoid attempts to provide input for) to improve the usability of the device and make the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、仮想三次元オブジェクトの第1の視点の表現を表示する前に、デバイスは、それぞれの視点からの仮想三次元オブジェクトのビューの表現(例えば、仮想三次元オブジェクトに対応する二次元画像のような静的表現)を含む仮想三次元オブジェクトの表現(例えば、サムネイル又はアイコン)を含むユーザーインターフェースを表示する(18050)。仮想三次元オブジェクトの表現を表示している間、デバイスは、仮想三次元オブジェクト(例えば、仮想三次元オブジェクトの表現に関するタップ入力又は他の選択入力)を表示するための要求を検出する(18052)。仮想三次元オブジェクトを表示するための要求を検出することに応じて、デバイスは、仮想三次元オブジェクトの表現のそれぞれの視点を一致させるために、仮想三次元オブジェクトの表現の表示を、回転された仮想三次元オブジェクトと置き換える(18054)。図11A~図11Eは、仮想オブジェクト11002の表現を表示するユーザーインターフェース5060の例を提供する。仮想オブジェクト11002を表示するための要求に応じて、図11Aに関して説明されるように、ユーザーインターフェース5060のディスプレイは、図11Eに図示されるように、ステージングユーザーインターフェース6010における仮想オブジェクト11002の表示によって置き換えられる。図11Eにおける仮想オブジェクト11002の視点は、図11Aにおける仮想オブジェクト11002の表現の視点と同じである。いくつかの実施形態では、仮想三次元オブジェクトの表現は、仮想三次元オブジェクトを用いて置き換えられる前に、(例えば、仮想三次元オブジェクトのサイズに一致するサイズへ)スケールアップされる。いくつかの実施形態では、仮想三次元オブジェクトは、先ず、仮想三次元オブジェクトの表現のサイズで表示され、後続して、スケールアップされる。いくつかの実施形態では、仮想三次元オブジェクトの表現から仮想三次元オブジェクトへの遷移中、仮想三次元オブジェクトの表現と、仮想三次元オブジェクトとの間の円滑な遷移を生成するように、デバイスは、仮想三次元オブジェクトの表現を徐々に拡大し、仮想三次元オブジェクトの表現を、仮想三次元オブジェクトを用いてクロスフェードし、その後、仮想三次元オブジェクトを徐々に拡大する。いくつかの実施形態では、仮想三次元オブジェクトの初期場所は、仮想三次元オブジェクトの表現の場所に対応するように選択される。いくつかの実施形態では、仮想三次元オブジェクトの表現は、仮想三次元オブジェクトが表示される場所に対応するように選択された場所へシフトされる。仮想三次元オブジェクトの(二次元)表現の表示を、(二次元)表示の視点に一致するように回転された仮想三次元オブジェクトに置き換えることは、(例えば、三次元オブジェクトが、仮想三次元オブジェクトの二次元表現と同じオブジェクトであることを示すために)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, before displaying the representation of the first viewpoint of the virtual 3D object, the device corresponds to a representation of the view of the virtual 3D object from each viewpoint (eg, a virtual 3D object). Display a user interface that includes a representation of a virtual 3D object (eg, a thumbnail or icon) that includes a static representation such as a 2D image (18050). While displaying the representation of the virtual 3D object, the device detects a request to display the virtual 3D object (eg, tap input or other selection input for the representation of the virtual 3D object) (18052). .. In response to detecting a request to display a virtual 3D object, the device rotated the display of the virtual 3D object's representation to match the respective perspectives of the virtual 3D object's representation. Replace with a virtual 3D object (18054). 11A-11E provide an example of a user interface 5060 displaying a representation of virtual object 11002. In response to a request to display virtual object 11002, the display of user interface 5060 is replaced by the display of virtual object 11002 in staging user interface 6010, as illustrated with reference to FIG. 11A. Be done. The viewpoint of the virtual object 11002 in FIG. 11E is the same as the viewpoint of the representation of the virtual object 11002 in FIG. 11A. In some embodiments, the representation of the virtual 3D object is scaled up (eg, to a size that matches the size of the virtual 3D object) before being replaced with the virtual 3D object. In some embodiments, the virtual three-dimensional object is first displayed in the size of the representation of the virtual three-dimensional object and then scaled up. In some embodiments, the device produces a smooth transition between the representation of the virtual 3D object and the virtual 3D object during the transition from the representation of the virtual 3D object to the virtual 3D object. , Gradually expand the representation of the virtual 3D object, crossfade the representation of the virtual 3D object using the virtual 3D object, and then gradually expand the virtual 3D object. In some embodiments, the initial location of the virtual 3D object is chosen to correspond to the location of the representation of the virtual 3D object. In some embodiments, the representation of the virtual 3D object is shifted to a location chosen to correspond to the location where the virtual 3D object is displayed. Replacing the display of a (two-dimensional) representation of a virtual three-dimensional object with a virtual three-dimensional object that has been rotated to match the viewpoint of the (two-dimensional) display (for example, a three-dimensional object is a virtual three-dimensional object). Provides visual feedback (to show that it is the same object as the 2D representation of). Providing improved visual feedback to the user enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェースを表示する前に、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示する(18056)。仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示している間、デバイスは、仮想三次元オブジェクトの二次元表現に対応するタッチ感知面上の場所において、プレビュー基準を満たす(例えば、プレビュー基準は、押圧入力の強度が第1の強度閾値(例えば、弱い押圧強度閾値)を超えることを必要とする、及び/又は、プレビュー基準は、押圧入力の持続時間が第1の持続時間閾値を超えることを必要とする)タッチ入力(例えば、接触の強度の増加)の第1の部分を検出する(18058)。タッチ入力の第1の部分がプレビュー基準を満たすことを検出することに応じて、デバイスは、仮想三次元オブジェクトの二次元表現よりも大きな仮想三次元オブジェクトのプレビューを表示する(例えば、プレビューは、仮想三次元オブジェクトの異なる視点を示すためにアニメーション化される)(18060)。いくつかの実施形態では、デバイスは、(例えば、入力の持続時間又は圧力に基づいて、又は、あらかじめ決定されたアニメーションの速度に基づいて)徐々に拡大する三次元オブジェクトのアニメーションを表示する。(例えば、現在表示されているユーザーインターフェースの表示を、異なるユーザーインターフェースと置き換えることなく)仮想三次元オブジェクトのプレビューを表示することは、(例えば、ユーザーが、仮想三次元オブジェクトを表示し、ユーザーインターフェース同士の間でのナビゲーションのための入力を提供する必要無しに仮想三次元オブジェクトの二次元表現を見るように戻せるようにすることによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, before displaying the first user interface, the device displays a two-dimensional user interface that includes a two-dimensional representation of the virtual three-dimensional object (18056). While displaying a two-dimensional user interface that contains a two-dimensional representation of a virtual three-dimensional object, the device meets the preview criteria at a location on the touch-sensitive surface that corresponds to the two-dimensional representation of the virtual three-dimensional object (eg,). The preview criterion requires that the intensity of the press input exceeds the first intensity threshold (eg, a weak press intensity threshold), and / or the preview criterion is that the duration of the press input is the first duration threshold. The first part of the touch input (eg, increased contact strength) is detected (18058). In response to detecting that the first part of the touch input meets the preview criteria, the device displays a preview of the virtual 3D object that is larger than the 2D representation of the virtual 3D object (eg, the preview is. Animated to show different perspectives of a virtual 3D object) (18060). In some embodiments, the device displays an animation of a gradually expanding 3D object (eg, based on the duration or pressure of the input, or based on a predetermined animation speed). Displaying a preview of a virtual three-dimensional object (for example, without replacing the display of the currently displayed user interface with a different user interface) means that the user displays the virtual three-dimensional object and the user interface. Improves device usability) by allowing you to revert to seeing a two-dimensional representation of a virtual three-dimensional object without having to provide input for navigation between each other. Reducing the number of inputs required to perform an operation enhances the usability of the device. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、仮想三次元オブジェクトのプレビューを表示している間、デバイスは、(例えば、継続的に維持されている同じ接触によって)タッチ入力の第2の部分を検出する(18062)。タッチ入力の第2の部分を検出することに応じて(18064)、タッチ入力の第2の部分がメニュー表示基準を満たす(例えば、メニュー表示基準は、接触が、所定の方向へ、(例えば、上方へ)閾値量よりも多く移動することを必要とする)との判定にしたがって、デバイスは、仮想オブジェクトに関連付けられた複数の動作に対応する複数の選択可能なオプション(例えば、共有メニュー)(例えば、仮想オブジェクトを、別のデバイス又はユーザーと共有する様々な手段のような共有オプション)を表示し、タッチ入力の第2の部分がステージング基準(例えば、ステージング基準は、接触の強度が、第1の閾値強度よりも大きな第2の閾値強度(例えば、深い押圧強度閾値)を超えることを必要とする)を満たすとの判定にしたがって、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースの表示を、仮想三次元オブジェクトを含む第1のユーザーインターフェースに置き換える。仮想オブジェクトに関連付けられたメニューを表示すること、又は、仮想三次元オブジェクトの二次元表示を含む二次元ユーザーインターフェースの表示を、仮想三次元オブジェクトを含む第1のユーザーインターフェースと置き換えることは、ステージング基準が満たされているか否かに依存して、入力に応じて、多数の異なるタイプの動作の実行を可能にする。第1のタイプの入力を用いて、多数の異なるタイプの動作の実行を可能にすることは、効率を高め、これによって、ユーザーは、これらの操作を実行することができる。これによって、デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects a second part of the touch input (eg, by the same contact that is continuously maintained) while displaying a preview of the virtual 3D object (18062). .. In response to detecting a second portion of the touch input (18064), the second portion of the touch input meets the menu display criteria (eg, the menu display criterion is that the contact is in a predetermined direction (eg, eg). According to the determination (upward) that it is necessary to move more than the threshold amount), the device has multiple selectable options (eg, shared menu) corresponding to the multiple actions associated with the virtual object (eg, shared menu). For example, a sharing option such as various means of sharing a virtual object with another device or user is displayed, and the second part of the touch input is the staging criteria (eg, the staging criteria are the strength of contact. According to the determination that the second threshold intensity (eg, deep pressing intensity threshold) greater than the threshold intensity of 1 is satisfied, the device comprises a two-dimensional representation of the virtual three-dimensional object. Replace the display of the dimensional user interface with a first user interface that contains virtual three-dimensional objects. Displaying the menu associated with a virtual object or replacing the display of a 2D user interface containing a 2D display of a virtual 3D object with a first user interface containing a virtual 3D object is a staging criterion. Allows a large number of different types of actions to be performed, depending on the input, depending on whether is satisfied or not. Allowing the execution of many different types of actions using the first type of input increases efficiency, which allows the user to perform these operations. This enhances the operability of the device. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェースが、複数の制御(例えば、ワールドビューへの切り替えのため、戻る等のためのボタン)を含む(18066)。第1のユーザーインターフェースを表示する前に、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示する(18068)。第1のユーザーインターフェースにおいて、仮想三次元オブジェクト表示するための要求を検出することに応じて、デバイスは(18070)、仮想三次元オブジェクトに関連付けられた1つ以上の制御のセットを表示することなく、第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示し、第1のユーザーインターフェース内に仮想三次元オブジェクトを表示した後、デバイスは、1つ以上の制御のセットを表示する。例えば、図11A~図11Eに関して説明されるように、仮想オブジェクト11002の二次元表現を含むユーザーインターフェース5060のディスプレイは、ステージングユーザーインターフェース6010の前に表示される。(図11Aに関して説明されるように、)ステージングユーザーインターフェース6010内に、仮想オブジェクト11002を表示するための要求に応じて、ステージングユーザーインターフェース6010の制御6016、6018、6020なしで(図11B~図11Cに図示されるように)仮想オブジェクト11002が表示される。図11D~図11Eでは、ステージングユーザーインターフェース6010の制御6016、6018、6020が、ユーザーインターフェース内のビューへフェードする。いくつかの実施形態では、1つ以上の制御のセットが、デバイスの1つ以上のカメラの視野において検出されたプレーンに対して固定された位置に仮想三次元オブジェクトが配置されている、拡張現実環境において仮想三次元オブジェクトを表示するための制御を含む。いくつかの実施形態では、第1のユーザーインターフェースにおいて仮想三次元オブジェクトを表示するための要求を検出することに応じて、仮想三次元オブジェクトが、第1のユーザーインターフェース内に表示される準備ができていない(例えば、仮想オブジェクトの三次元モデルが、第1のユーザーインターフェースが表示される準備ができている時に、完全にロードされない)(例えば、仮想オブジェクトのロード時間が、閾値時間よりも長い(例えば、顕著であり、ユーザーに知覚可能である))との判定にしたがって、デバイスは、第1のユーザーインターフェース内に、複数の制御を表示することなく、第1のユーザーインターフェースの一部(例えば、第1のユーザーインターフェースの背景ウィンドウ)を表示し、(例えば、第1のユーザーインターフェースの一部が、制御なしで表示された後)仮想三次元オブジェクトが、第1のユーザーインターフェース内に表示される準備ができているとの判定にしたがって、デバイスは、第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示(例えば、フェードイン)しデバイスは、仮想三次元オブジェクトが第1のユーザーインターフェース内に表示された後、制御を表示(例えば、フェードイン)する。第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示するための要求を検出することに応じて、仮想三次元オブジェクトが表示される準備ができている(例えば、第1のユーザーインターフェースが表示される準備ができている場合、仮想オブジェクトの三次元モデルがロードされた)、(例えば、仮想オブジェクトのロード時間が、閾値時間よりも短い(例えば、無視することができ、ユーザーに知覚可能ではない))との判定にしたがって、デバイスは、第1のユーザーインターフェース上における複数の制御とともに、第1のユーザーインターフェースを表示し、デバイスは、複数の制御を用いて、第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示する(例えば、フェードインしない)。いくつかの実施形態では、(例えば、「戻る」要求に応じて)二次元ユーザーインターフェースへ戻るために、ステージングユーザーインターフェースを出た場合、制御は、仮想三次元オブジェクトが仮想三次元オブジェクトの二次元表現へ変換される前に先ずフェードアウトする。ユーザーインターフェース内に、仮想三次元オブジェクトを表示した後、制御を表示することは、(例えば、仮想オブジェクトを操作するための制御が、仮想オブジェクトをロードするために必要とされる時間長さの間、利用可能ではないことを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、仮想オブジェクトのためのロード時間中、操作動作が利用可能ではない間、ユーザーがオブジェクトを操作するための入力の提供を回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first user interface comprises a plurality of controls (eg, buttons for switching back to world view, etc.) (18066). Prior to displaying the first user interface, the device displays a two-dimensional user interface that includes a two-dimensional representation of the virtual three-dimensional object (18068). In response to detecting a request to display a virtual three-dimensional object in the first user interface (18070), the device does not display one or more sets of controls associated with the virtual three-dimensional object. After displaying the virtual three-dimensional object in the first user interface and the virtual three-dimensional object in the first user interface, the device displays one or more sets of controls. For example, as described with respect to FIGS. 11A-11E, the display of the user interface 5060 containing the two-dimensional representation of the virtual object 11002 is displayed in front of the staging user interface 6010. Without controls 6016, 6018, 6020 of the staging user interface 6010 (as described with respect to FIG. 11A) in response to a request to display the virtual object 11002 within the staging user interface 6010 (FIGS. 11B-11C). The virtual object 11002 is displayed (as illustrated in). In FIGS. 11D-11E, controls 6016, 6018, 6020 of the staging user interface 6010 fade to a view within the user interface. In some embodiments, augmented reality, where one or more sets of controls are placed in fixed positions with respect to the plane detected in the field of view of one or more cameras on the device. Includes controls for displaying virtual 3D objects in the environment. In some embodiments, the virtual three-dimensional object is ready to be displayed within the first user interface in response to detecting a request to display the virtual three-dimensional object in the first user interface. Not (eg, the 3D model of the virtual object is not fully loaded when the first user interface is ready to be displayed) (eg, the load time of the virtual object is longer than the threshold time (eg) For example, according to the determination that it is prominent and perceptible to the user)), the device is part of the first user interface (eg, without displaying multiple controls within the first user interface). , The background window of the first user interface), and the virtual three-dimensional object is displayed within the first user interface (for example, after a part of the first user interface is displayed without control). According to the determination that the device is ready, the device displays a virtual three-dimensional object in the first user interface (for example, fades in), and the device displays the virtual three-dimensional object in the first user interface. After being displayed in, the control is displayed (for example, faded in). In response to detecting a request to display a virtual three-dimensional object within the first user interface, the virtual three-dimensional object is ready to be displayed (eg, the first user interface is displayed). When ready, the virtual object's three-dimensional model was loaded (for example, the virtual object's load time is shorter than the threshold time (eg, it can be ignored and is not perceptible to the user). )), The device displays the first user interface with the plurality of controls on the first user interface, and the device uses the plurality of controls within the first user interface. Display a virtual three-dimensional object (for example, do not fade in). In some embodiments, when exiting the staging user interface to return to the 2D user interface (eg, in response to a "back" request), the control is that the virtual 3D object is 2D in the virtual 3D object. First fade out before being converted to an expression. Displaying the controls after displaying the virtual 3D object in the user interface (for example, during the length of time the controls for manipulating the virtual object are required to load the virtual object). Provide visual feedback (indicating that it is not available). Providing improved visual feedback to the user avoids providing input for the user to interact with the object (eg, during the load time for the virtual object, while the operation behavior is not available). By assisting) to improve the operability of the device and make the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

図18A~図18Iにおける動作が説明された特定の順序は、単なる例であり、説明された順序は、動作が実行され得る唯一の順序であることを示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(方法800、900、1000、16000、17000、19000、及び20000)に関して本明細書で説明される他の処理の詳細はまた、図18A~図18Iに関して上述された方法18000と類似の方式で適用可能であることが注目されるべきである。例えば、方法18000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、800、900、1000、17000、18000、19000、及び20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It is understood that the particular order in which the actions in FIGS. 18A-18I are described is merely an example and the described order is not intended to indicate that the actions are the only order in which they can be performed. Should be. Those of skill in the art will recognize various techniques for reordering the operations described herein. In addition, details of other processes described herein with respect to the other methods described herein (Methods 800, 900, 1000, 16000, 17000, 19000, and 20000) are also described in FIGS. 18A-. It should be noted that with respect to FIG. 18I, it is applicable in a manner similar to the method 18000 described above. For example, the contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / or animations described above with reference to Method 18000 are optionally other methods described herein. The contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / / described herein with reference to (eg, 800, 900, 1000, 17000, 18000, 19000, and 20000). Alternatively, it has one or more of the features consisting of animation. For the sake of brevity, these details are not repeated herein.

図19A~図19Hは、第1の閾値移動大きさが、第1のオブジェクト操作挙動のために満たされているとの判定にしたがって、第2のオブジェクト操作挙動のために必要な第2の閾値移動大きさを増加させる方法19000を例示するフロー図である。方法19000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)とタッチ感知面(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)とを有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100、)において実行される。方法19000におけるいくつかの動作は、オプションで、組み合わされるか、及び/又は、いくつかの動作の順序は、オプションで、変更される。 19A-19H show a second threshold value required for the second object operation behavior according to the determination that the first threshold movement magnitude is satisfied for the first object operation behavior. It is a flow figure which illustrates the method 19000 which increases the movement size. Method 19000 comprises a display generation component (eg, a display, a projector, a heads-up display, etc.) and a touch sensitive surface (eg, a touch sensitive surface, or a touch screen display that serves as both a display generation component and a touch sensitive surface). It is performed on the electronic device (for example, the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A). Some actions in method 19000 are optionally combined and / or the order of some actions is optionally changed.

デバイスは、第1のジェスチャ認識基準(例えば、回転基準)を満たす入力に応じて実行される第1のオブジェクト操作挙動(例えば、それぞれの軸の周りのユーザーインターフェースオブジェクトの回転)と、第2のジェスチャ認識基準(例えば、変換基準とスケーリング基準とのうちの1つ)を満たす入力に応じて実行される第2のオブジェクト操作挙動(例えば、ユーザーインターフェースオブジェクトの変換、又は、ユーザーインターフェースオブジェクトのスケーリングのうちの1つ)とを含む、複数のオブジェクト操作挙動に関連付けられたユーザーインターフェースオブジェクト(例えば、仮想オブジェクトの表現を含むユーザーインターフェース領域)を含む第1のユーザーインターフェース領域を、表示生成コンポーネントを介して表示する(19002)。例えば、表示された仮想オブジェクト11002は、(例えば、図14B~図14Eに関して説明されるような)それぞれの軸の周りの回転、(例えば、図14K~図14Mに関して説明されるような)変換、及び(図14G~図14Iに関して説明されるような)スケーリングを含む操作挙動に関連付けられる。 The device has a first object manipulation behavior (eg, rotation of a user interface object around each axis) performed in response to an input that meets a first gesture recognition criterion (eg, a rotation criterion), and a second. A second object manipulation behavior (eg, conversion of a user interface object, or scaling of a user interface object) performed in response to an input that meets a gesture recognition criterion (eg, one of a conversion criterion and a scaling criterion). A first user interface area containing a user interface object (eg, a user interface area containing a representation of a virtual object) associated with multiple object manipulation behaviors, including one of them), via a display generation component. Display (19002). For example, the displayed virtual object 11002 may rotate around each axis (eg, as described for FIGS. 14B-14E), transform (eg, as described for FIGS. 14K-14M). And associated with operational behavior including scaling (as described with respect to FIGS. 14G-14I).

第1のユーザーインターフェース領域を表示している間、デバイスは、タッチ感知面にわたる1つ以上の接触の移動を検出することを含むユーザーインターフェースオブジェクトへ向けられた入力の第1の部分を検出し(例えば、デバイスは、ユーザーインターフェースオブジェクトの表示位置に対応するタッチ感知面上の場所における1つ以上の接触を検出し)、1つ以上の接触が、タッチ感知面上で検出されている間、デバイスは、第1のジェスチャ認識基準と第2のジェスチャ認識基準との両方に関する1つ以上の接触の移動を評価する(19004)。 While displaying the first user interface area, the device detects the first part of the input directed to the user interface object, including detecting the movement of one or more contacts across the touch sensitive surface. For example, the device detects one or more contacts at a location on the touch-sensitive surface that corresponds to the display position of the user interface object), while the device detects one or more contacts on the touch-sensitive surface. Evaluates the movement of one or more contacts with respect to both the first gesture recognition criterion and the second gesture recognition criterion (19004).

入力の第1の部分を検出することに応じて、デバイスは、入力の第1の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する。これは、第2のジェスチャ認識基準を満たす前に、入力の第1の部分が第1のジェスチャ認識基準を満たしているとの判定にしたがって、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化させる(例えば、ユーザーインターフェースオブジェクトを回転させる)ことと、(例えば、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化せることなく、)第2のジェスチャ認識基準のための閾値を増加させる(例えば、第2のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させる)ことによって、第2のジェスチャ認識基準を更新することとを含む(19006)。例えば、図14Eにおいて、仮想オブジェクト11002は、(スケーリング基準が満たされる前に)回転基準が満たされているとの判定にしたがって回転され、スケーリング基準のための閾値STが、ST'へ増加される。いくつかの実施形態では、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、変換及びスケーリングのための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスされる。この入力が、第1のジェスチャ認識基準を満たす前に、第2のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化させ(例えば、ユーザーインターフェースオブジェクトを変換するか、又は、ユーザーインターフェースオブジェクトをリサイズし)、(例えば、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化させることなく)第1のジェスチャ認識基準のための閾値を増加させる(例えば、第1のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させる)ことによって、第1のジェスチャ認識基準を更新する。例えば、図14Iにおいて、仮想オブジェクト11002のサイズは、(回転基準が満たされる前に)スケーリング基準が満たされているとの判定にしたがって増加し、回転基準のための閾値RTが、RT'へ増加される。いくつかの実施形態では、オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされる前に、(オブジェクトを回転するためのジェスチャを認識するための基準が以前に満たされていないと仮定して、)回転のためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける回転動作を開始することは比較的容易である。オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされると、オブジェクトにおける回転操作を開始することはより困難になり、(例えば、オブジェクトを回転させるための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作挙動がバイアスされる。いくつかの実施形態では、ユーザーインターフェースオブジェクトの外観は、入力のそれぞれの移動パラメータの値にしたがって(例えば、異なるサイズ、位置、視点、反射、影等を示して)動的及び連続的に変更される。いくつかの実施形態では、デバイスは、移動パラメータ(例えば、各タイプの操作挙動のためのそれぞれの移動パラメータ)と、ユーザーインターフェースオブジェクトの外観に対してなされた変更(例えば、各タイプの操作挙動のための外観のそれぞれの態様)との間でプリセットされた調和(例えば、各タイプの操作挙動のためのそれぞれの調和)に従う。入力された移動が、第2のオブジェクト操作のための第2の閾値を超えて増加した場合、第1のオブジェクト操作のために必要とされる入力移動のための第1の閾値を増加させることは、(例えば、ユーザーが、第1のオブジェクト操作を実行するための入力の提供を試みている間、第2のオブジェクト操作を誤って実行することを回避することを支援することによって)デバイスの操作性を高める。異なるタイプのオブジェクト操作を制御するユーザーの能力を改善することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In response to detecting the first part of the input, the device updates the appearance of the user interface object based on the first part of the input. It is based on the first part of the input (eg, the input, according to the determination that the first part of the input meets the first gesture recognition criterion before meeting the second gesture recognition criterion. Changing the appearance of the user interface object (eg, rotating the user interface object) and (eg, rotating the user interface object) according to the first object manipulation behavior (based on the orientation and / or size of the first part of). Increase the threshold for the second gesture recognition criterion (eg, the movement parameter in the second gesture recognition criterion (eg, travel distance) according to the object manipulation behavior of 2 without changing the appearance of the user interface object). , Speed, etc.) to update the second gesture recognition criterion (19006). For example, in FIG. 14E, the virtual object 11002 is rotated according to the determination that the rotation criteria are met (before the scaling criteria are met), and the threshold ST for the scaling criteria is increased to ST'. .. In some embodiments, transformation or scaling (assuming the criteria for transformation or scaling were not previously met) before the criteria for recognizing the gesture to rotate the object are met. It is relatively easy to initiate a transformation or scaling operation on an object by meeting the criteria for recognizing gestures for. Once the criteria for recognizing the gesture to rotate the object are met, it becomes more difficult to initiate a transform or scaling operation on the object (eg, the criteria for transform and scaling are due to movement parameters. The object operation is biased towards the operational behavior that corresponds to the gesture already recognized and used to manipulate this object, updated with the increased threshold of. According to the determination that this input meets the second gesture recognition criterion before it meets the first gesture recognition criterion, the device is based on the first portion of the input (eg, the first portion of the input). Change the appearance of the user interface object (eg, transform the user interface object or resize the user interface object) according to the second object manipulation behavior (based on the orientation and / or size of). Increase the threshold for the first gesture recognition criterion (eg, according to the first object manipulation behavior, without changing the appearance of the user interface object) (eg, movement parameters in the first gesture recognition criterion (eg, eg). , Travel distance, speed, etc.) to update the first gesture recognition criterion). For example, in FIG. 14I, the size of the virtual object 11002 increases according to the determination that the scaling criteria are met (before the rotation criteria are met), and the threshold RT for the rotation criteria increases to RT'. Will be done. In some embodiments, the criteria for recognizing gestures for rotating an object are not previously met before the criteria for recognizing gestures for transforming or scaling an object are met. Assuming) it is relatively easy to initiate a rotation motion on an object by satisfying the criteria for recognizing the gesture for rotation. Once the criteria for recognizing the gesture to transform or scale the object are met, it becomes more difficult to initiate a rotation operation on the object (for example, the criteria for rotating the object are due to movement parameters. The object manipulation behavior is biased towards the manipulation behavior that corresponds to the gesture already recognized and used to manipulate this object (updated with the increased threshold of). In some embodiments, the appearance of the user interface object is dynamically and continuously modified (eg, showing different sizes, positions, viewpoints, reflections, shadows, etc.) according to the values of the respective movement parameters of the input. To. In some embodiments, the device has movement parameters (eg, each movement parameter for each type of operation behavior) and changes made to the appearance of the user interface object (eg, each type of operation behavior). Follow preset harmony (eg, each harmony for each type of operational behavior) with each aspect of appearance for. Increasing the first threshold for input movement required for the first object operation if the input movement increases beyond the second threshold for the second object operation. By helping the user avoid accidentally performing a second object operation while attempting to provide input to perform the first object operation (eg, by helping the user avoid accidentally performing a second object operation). Improve operability. Improving the user's ability to control different types of object operations enhances device usability and makes the user device interface more efficient.

いくつかの実施形態では、入力の第1の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新した後、デバイスは、(例えば、入力の第1の部分において連続的に維持されている同じ接触、又は、入力の第1の部分における接触の終了(例えば、リフトオフ)後に検出された異なる接触によって)入力の第2の部分を検出する(19008)。いくつかの実施形態では、入力の第2の部分は、ユーザーインターフェースオブジェクトへ向けられた連続的に検出された入力に基づいて検出される。入力の第2の部分を検出することに応じて、デバイスは、入力の第2の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する(19010)。これは、入力の第1の部分が、第1のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第2のジェスチャ認識基準を満たさないとの判定にしたがって、(例えば、入力の第2の部分が、第1のジェスチャ認識基準又は元の第2のジェスチャ認識基準を満たすか否かを考慮することなく、)入力の第2の部分に基づいて(例えば、入力の第2の部分の方向及び/又は大きさに基づいて)、第2のオブジェクト操作挙動にしたがって、(例えば、入力の第2の部分が、更新される前の元の第2のジェスチャ認識基準を満たしていても)ユーザーインターフェースオブジェクトの外観を変更することなく、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第1の部分が、第2のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第1のジェスチャ認識基準を満たさないとの判定にしたがって、(例えば、入力の第2の部分が、第2のジェスチャ認識基準又は元の第1のジェスチャ認識基準を満たすか否かを考慮することなく、)入力の第2の部分に基づいて(例えば、入力の第2の部分の方向及び/又は大きさに基づいて)、第1のオブジェクト操作挙動にしたがって、(例えば、入力の第2の部分が、更新される前の元の第1のジェスチャ認識を満たしていても)ユーザーインターフェースオブジェクトの外観を変更することなく、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、を含む。 In some embodiments, after updating the appearance of the user interface object based on the first part of the input, the device (eg, the same contact that is continuously maintained in the first part of the input,). Alternatively, the second part of the input is detected (by a different contact detected after the end of the contact (eg, lift-off) in the first part of the input) (2008). In some embodiments, the second part of the input is detected based on continuously detected inputs directed to the user interface object. In response to detecting a second part of the input, the device updates the appearance of the user interface object based on the second part of the input (19010). This is done according to the determination that the first part of the input meets the first gesture recognition criterion and the second part of the input does not meet the updated second gesture recognition criterion (eg, input). Based on the second part of the input (eg, the second part of the input) without considering whether the second part of the first gesture recognition criterion or the original second gesture recognition criterion is met. According to the second object manipulation behavior (eg, based on the orientation and / or size of the part), the second part of the input meets the original second gesture recognition criteria before being updated. Changing the appearance of the user interface object according to the first object manipulation behavior without changing the appearance of the user interface object, and the first part of the input meets the second gesture recognition criteria. , According to the determination that the second part of the input does not meet the updated first gesture recognition criterion (eg, the second part of the input is the second gesture recognition criterion or the original first one). A first object operation based on a second part of the input (eg, based on the orientation and / or size of the second part of the input), without considering whether or not it meets the gesture recognition criteria. According to the behavior (for example, even if the second part of the input satisfies the original first gesture recognition before being updated), the second object manipulation behavior without changing the appearance of the user interface object. Including changing the appearance of user interface objects according to.

いくつかの実施形態(19012)では、入力の第1の部分が、第1のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観が変更される一方、入力の第2の部分は、(例えば、閾値が増加される前に、第2のジェスチャ認識基準における入力の移動パラメータに関する元の閾値を用いて、)第2のジェスチャ認識基準が更新される前に、第2のジェスチャ認識基準を満たす入力を含んでいる(例えば、入力の第2の部分は、更新された第2のジェスチャ認識基準を満たす入力を含んでいない)。 In some embodiments (19012), after the first part of the input meets the first gesture recognition criteria, the user interface follows the first object manipulation behavior based on the second part of the input. While the appearance of the object is changed, the second part of the input is a second part (eg, using the original threshold for the input's movement parameters in the second gesture recognition criterion before the threshold is increased). Contains inputs that meet the second Gesture Recognition Criteria before the Gesture Recognition Criteria are updated (for example, the second part of the input contains inputs that meet the updated second Gesture Recognition Criteria). not present).

いくつかの実施形態(19014)では、ユーザーインターフェースオブジェクトの外観は、入力の第1の部分が、第2のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがって変更される一方、入力の第2の部分は、(例えば、閾値が増加される前に、第1のジェスチャ認識基準における入力の移動パラメータのための元の閾値を用いて、)第1のジェスチャ認識基準が更新される前に、第1のジェスチャ認識基準を満たす入力を含む(例えば、入力の第2の部分は、更新された第1のジェスチャ認識基準を満たす入力を含まない)。 In some embodiments (19014), the appearance of the user interface object is based on the second part of the input after the first part of the input meets the second gesture recognition criterion. While being modified according to operational behavior, the second part of the input (eg, using the original threshold for the input's movement parameter in the first gesture recognition criterion before the threshold is increased). Contains inputs that meet the first gesture recognition criteria before the first gesture recognition criteria are updated (eg, the second part of the input does not contain inputs that meet the updated first gesture recognition criteria. ).

いくつかの実施形態(19016)では、ユーザーインターフェースオブジェクトの外観は、入力の第1の部分が、第1のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがって変更される一方、入力の第2の部分は、(例えば、第1のジェスチャ認識基準における入力の移動パラメータのための元の閾値を用いた)第1のジェスチャ認識基準を満たす入力を含まない。例えば、第1のジェスチャ認識基準が満たされると、入力は、第1のオブジェクト操作挙動を引き起こすために、もはや第1のジェスチャ認識基準を満たし続ける必要はない。 In some embodiments (19016), the appearance of the user interface object is based on the second part of the input after the first part of the input meets the first gesture recognition criteria. While being modified according to operational behavior, the second portion of the input meets the first gesture recognition criterion (eg, using the original threshold for the input's movement parameters in the first gesture recognition criterion). Does not include. For example, when the first gesture recognition criterion is met, the input no longer needs to continue to meet the first gesture recognition criterion in order to trigger the first object manipulation behavior.

いくつかの実施形態(19018)では、ユーザーインターフェースオブジェクトの外観は、入力の第1の部分が、第2のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがって変更される一方、入力の第2の部分は、(例えば、第2のジェスチャ認識基準における入力の移動パラメータのための元の閾値を用いた)第2のジェスチャ認識基準を満たす入力を含まない。例えば、第2のジェスチャ認識基準が満たされると、入力は、第2のオブジェクト操作挙動を引き起こすために、もはや第2のジェスチャ認識基準を満たし続ける必要はない。入力の第2の部分が、増加された閾値を超えて増加する移動を含む場合に、第1のオブジェクト操作挙動を実行することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された基準を満たすことによって第1のオブジェクト操作を実行した後、第2のオブジェクト操作を意図的に実行する能力をユーザーに提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を改善し、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19018), the appearance of the user interface object is based on the second part of the input after the first part of the input meets the second gesture recognition criteria. While being modified according to operational behavior, the second part of the input meets the second gesture recognition criterion (eg, using the original threshold for the input's movement parameters in the second gesture recognition criterion). Does not include. For example, when the second gesture recognition criterion is met, the input no longer needs to continue to meet the second gesture recognition criterion in order to trigger the second object manipulation behavior. If the second part of the input contains movements that increase beyond the increased threshold, performing the first object manipulation behavior (eg, to provide new input to the user). Improving the usability of the device) by providing the user with the ability to intentionally perform a second object operation after performing the first object operation by meeting the increased criteria without requesting it. .. Reducing the number of inputs required to perform an operation improves the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、入力の第2の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新することは入力の第1の部分が、第2のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第1のジェスチャ認識基準を満たすとの判定にしたがって、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更し、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更することと、入力の第1の部分が、第1のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第2のジェスチャ認識基準を満たすとの判定にしたがって、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更し、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更することと、を含む(19020)。例えば、第1のジェスチャ認識基準がまず満たされ、その後、入力が更新された第2のジェスチャ認識基準を満たした後、入力は、第1及び第2の両方のオブジェクト操作挙動を引き起こすことができる。例えば、第2のジェスチャ認識基準がまず満たされ、その後、入力が更新された第1のジェスチャ認識基準を満たした後、入力は、第1及び第2の両方のオブジェクト操作挙動を引き起こすことができる。第2のジェスチャ認識基準及び更新された第1のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された閾値を満たした後、第1のオブジェクト操作及び第2のオブジェクト操作を使用して、オブジェクトを自由に操作する能力を、ユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, updating the appearance of the user interface object based on a second part of the input means that the first part of the input meets the second gesture recognition criteria and the second part of the input. Changes the appearance of the user interface object according to the first object manipulation behavior based on the second part of the input, according to the determination that it meets the updated first gesture recognition criteria, and the second part of the input. The appearance of the user interface object is changed according to the second object operation behavior based on the part of, and the first part of the input meets the first gesture recognition criteria and the second part of the input is. Based on the second part of the input, according to the determination that the updated second gesture recognition criteria are met, the appearance of the user interface object is changed according to the first object operation behavior, and the second part of the input. Includes changing the appearance of the user interface object according to a second object manipulation behavior based on (19020). For example, after the first gesture recognition criterion is first met and then the input meets the updated second gesture recognition criterion, the input can trigger both the first and second object manipulation behaviors. .. For example, after the second gesture recognition criterion is first met and then the input meets the updated first gesture recognition criterion, the input can trigger both the first and second object manipulation behaviors. .. The object is updated according to the first object operation behavior and the second object operation behavior according to the part of the input detected after the second gesture recognition criterion and the updated first gesture recognition criterion are satisfied. To do is to use the first object operation and the second object operation (for example, after satisfying the increased threshold without asking the user to provide new input, the object. Improve the operability of the device) by providing the user with the ability to operate freely. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、入力の第2の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新した後(例えば、第1のジェスチャ認識基準と更新された第2のジェスチャ認識基準との両方が満たされた後、又は、第2のジェスチャ認識基準と更新された第1のジェスチャ認識基準との両方が満たされた後)、デバイスは、(例えば、入力の第1及び第2の部分において連続的に維持されている同じ接触によって、又は、入力の第1の部分及び第2の部分の接触の終了(例えば、リフトオフ)後に検出された異なる接触によって)入力の第3の部分を検出する(19022)。入力の第3の部分を検出することに応じて、デバイスは、入力の第3の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する(19024)。これは、入力の第3の部分に基づいて、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第3の部分に基づいて、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することとを含む。例えば、第1のジェスチャ認識基準と更新された第2のジェスチャ認識基準との両方が満たされた後、又は、第2のジェスチャ認識基準と更新された第1のジェスチャ認識基準との両方が満たされた後、入力は、元の又は更新された第1及び第2のジェスチャ認識基準の閾値を考慮せずに、後続して、第1及び第2のオブジェクト操作挙動をともに引き起こすことができる。第2のジェスチャ認識基準及び更新された第1のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された閾値を満たすことによって、第1のオブジェクト操作タイプを実行する意図を確証した後、第1のオブジェクト操作及び第2のオブジェクト操作を使用して、オブジェクトを自由に操作する能力を、ユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after updating the appearance of the user interface object based on a second part of the input (eg, both the first gesture recognition criterion and the updated second gesture recognition criterion are met). After being performed or after both the second gesture recognition criterion and the updated first gesture recognition criterion are met), the device is (eg, continuous in the first and second parts of the input). Detects a third part of the input (19022) by the same contact maintained in, or by a different contact detected after the end of contact (eg, lift-off) of the first and second parts of the input. ). In response to detecting a third portion of the input, the device updates the appearance of the user interface object based on the third portion of the input (19024). It modifies the appearance of the user interface object according to the first object manipulation behavior based on the third part of the input, and to the second object manipulation behavior based on the third part of the input. Therefore, it involves changing the appearance of the user interface object. For example, after both the first gesture recognition criterion and the updated second gesture recognition criterion are met, or after both the second gesture recognition criterion and the updated first gesture recognition criterion are met. After being done, the input can subsequently trigger both the first and second object manipulation behaviors without considering the thresholds of the original or updated first and second gesture recognition criteria. The object is updated according to the first object operation behavior and the second object operation behavior according to the part of the input detected after the second gesture recognition criterion and the updated first gesture recognition criterion are satisfied. The first is to confirm the intent to perform the first object operation type (eg, by satisfying the increased threshold without asking the user to provide new input). By providing the user with the ability to manipulate objects freely using the object manipulation and the second object manipulation of), the operability of the device is enhanced. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態(19026)では、入力の第3の部分は、第1のジェスチャ認識基準を満たす入力、又は、第2のジェスチャ認識基準を満たす入力を含まない。例えば、第1のジェスチャ認識基準と更新された第2のジェスチャ認識基準との両方が満たされた後、又は、第2のジェスチャ認識基準と更新された第1のジェスチャ認識基準との両方が満たされた後、入力は、元の又は更新された第1及び第2のジェスチャ認識基準の閾値を考慮せずに、後続して、第1及び第2のオブジェクト操作挙動をともに引き起こすことができる。第2のジェスチャ認識基準及び更新された第1のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、高められた基準を満たした後、第1のオブジェクト操作及び第2のオブジェクト操作を使用して、オブジェクトを自由に操作する能力を、ユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19026), the third portion of the input does not include an input that meets the first gesture recognition criterion or an input that meets the second gesture recognition criterion. For example, after both the first gesture recognition criterion and the updated second gesture recognition criterion are met, or after both the second gesture recognition criterion and the updated first gesture recognition criterion are met. After being done, the input can subsequently trigger both the first and second object manipulation behaviors without considering the thresholds of the original or updated first and second gesture recognition criteria. The object is updated according to the first object operation behavior and the second object operation behavior according to the part of the input detected after the second gesture recognition criterion and the updated first gesture recognition criterion are satisfied. To do is to use the first object operation and the second object operation (for example, after satisfying the elevated criteria without asking the user to provide new input, the object. Improve the operability of the device) by providing the user with the ability to operate freely. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、複数のオブジェクト操作挙動が、第3のジェスチャ認識基準(例えば、スケーリング基準)を満たす入力に応じて実行される第3のオブジェクト操作挙動(例えば、ユーザーインターフェースオブジェクトの、それぞれの軸の周りの回転)を含む(19028)。入力の第1の部分に基づいてユーザーインターフェースオブジェクトの外観を更新することは、第2のジェスチャ認識基準を満たす前に、又は、第3のジェスチャ認識基準を満たす前に、入力の第1の部分が、第1のジェスチャ認識基準を満たすとの判定にしたがって、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更する(例えば、ユーザーインターフェースオブジェクトを回転させる)ことと、(例えば、第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変化させることなく)第2のジェスチャ認識基準のための閾値を増加させること(例えば、第2のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって第2のジェスチャ認識基準を更新することとを含む(19030)。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスされる。デバイスは、第3のジェスチャ認識基準のための閾値を増加させる(例えば、第3のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させる)ことによって、第3のジェスチャ認識基準を更新する。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスさせる。第1のジェスチャ認識基準を満たす前に、又は、第3のジェスチャ基準を満たす前に、入力が、第2のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更(例えば、ユーザーインターフェースオブジェクトを変換、又は、ユーザーインターフェースオブジェクトをリサイズ)し、(例えば、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を更新することなく)第1のジェスチャ認識基準のための閾値を増加させること(例えば、第1のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって、第1のジェスチャ認識基準を更新する。例えば、オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされる前に、(オブジェクトを回転させるためのジェスチャを認識するための基準が以前に満たされていないと仮定して、)回転のためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける回転動作を開始することは比較的容易である。オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされると、オブジェクトにおける回転動作を開始することはより困難になり、(例えば、オブジェクトを回転させるための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作挙動がバイアスされる。いくつかの実施形態では、ユーザーインターフェースオブジェクトの外観は、入力のそれぞれの移動パラメータの値にしたがって(例えば、異なるサイズ、位置、視点、反射、影等を示して)動的及び連続的に変更される。いくつかの実施形態では、デバイスは、移動パラメータ(例えば、操作挙動の各タイプのためのそれぞれの移動パラメータ)と、ユーザーインターフェースオブジェクトの外観に対してなされた変更(例えば、操作挙動の各タイプのための外観のそれぞれの態様)との間であらかじめ設定された調和(例えば、操作挙動の各タイプのためのそれぞれの調和)に従う。デバイスは、第3のジェスチャ認識基準のための閾値を増加させること(例えば、第3のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって、第3のジェスチャ認識基準を更新する。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスされる。第1のジェスチャ認識基準を満たす前に、又は、第2のジェスチャ基準を満たす前に、入力が、第3のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更(例えば、ユーザーインターフェースオブジェクトをリサイズ)し、(例えば、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を更新することなく、)デバイスは、第1のジェスチャ認識基準のための閾値を増加させること(例えば、第1のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって、第1のジェスチャ認識基準を更新する。例えば、オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされる前に、(オブジェクトを回転させるためのジェスチャを認識するための基準が以前に満たされていないと仮定して、)回転のためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける回転動作を開始することは比較的容易である。オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされると、オブジェクトにおける回転動作を開始することはより困難になり、(例えば、オブジェクトを回転させるための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作挙動がバイアスされる。いくつかの実施形態では、ユーザーインターフェースオブジェクトの外観は、入力のそれぞれの移動パラメータの値にしたがって(例えば、異なるサイズ、位置、視点、反射、影等を示して)動的及び連続的に変更される。いくつかの実施形態では、デバイスは、移動パラメータ(例えば、操作挙動の各タイプのためのそれぞれの移動パラメータ)と、ユーザーインターフェースオブジェクトの外観に対してなされた変更(例えば、操作挙動の各タイプのための外観のそれぞれの態様)との間であらかじめ設定された調和(例えば、操作挙動の各タイプのためのそれぞれの調和)に従う。デバイスは、第2のジェスチャ認識基準のための閾値を増加させること(例えば、第2のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって第2のジェスチャ認識基準を更新する。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスさせる。対応する第3のジェスチャ認識基準が満たされた場合にのみ、検出された入力の一部に応じて、第3のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、第1のオブジェクト操作又は第2のオブジェクト操作を実行するための入力の提供を試みている間に、ユーザーが誤って第3のオブジェクト操作を実行することを回避することを支援することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a third object manipulation behavior (eg, a user interface object), each of which is performed in response to an input in which the plurality of object manipulation behaviors meet a third gesture recognition criterion (eg, scaling criterion). (Rotation around the axis of) (19028). Updating the appearance of the user interface object based on the first part of the input is the first part of the input before it meets the second gesture recognition criterion or the third gesture recognition criterion. Is determined to meet the first Gesture Recognition Criteria, and the first object operation is based on the first part of the input (eg, based on the orientation and / or size of the first part of the input). Changing the appearance of the user interface object according to the behavior (for example, rotating the user interface object) and the second (for example, without changing the appearance of the user interface object according to the second object operation behavior). The second gesture by increasing the threshold for the gesture recognition criterion (eg, increasing the threshold required for the movement parameters (eg, travel distance, speed, etc.) in the second gesture recognition criterion). Includes updating recognition criteria (19030). For example, a gesture for transformation or scaling (assuming the criteria for transformation or scaling was not previously met) before the criteria for recognizing the gesture for rotating the object are met. It is relatively easy to initiate a transformation or scaling operation on an object by meeting the criteria for recognition. Once the criteria for recognizing the gesture to rotate the object are met, it becomes more difficult to initiate a transform or scaling operation on the object (eg, with an increased threshold for movement parameters). Criteria for transformation and scaling have been updated) and object operations are biased towards operational behaviors that are already recognized and correspond to the gestures used to manipulate this object. The device increases the threshold for the third gesture recognition criterion (eg, increases the threshold required for the movement parameters (eg, distance traveled, speed, etc.) in the third gesture recognition criterion). Updates the third gesture recognition criterion. For example, a gesture for transformation or scaling (assuming the criteria for transformation or scaling was not previously met) before the criteria for recognizing the gesture for rotating the object are met. It is relatively easy to initiate a transformation or scaling operation on an object by meeting the criteria for recognition. Once the criteria for recognizing the gesture to rotate the object are met, it becomes more difficult to initiate a transform or scaling operation on the object (eg, with an increased threshold for movement parameters). Criteria for transformation and scaling have been updated) and object operations are biased towards operational behavior that corresponds to the gestures that are already recognized and used to manipulate this object. Before meeting the first gesture recognition criterion or before meeting the third gesture criterion, the device is placed in the first part of the input according to the determination that the input meets the second gesture recognition criterion. Based on (eg, based on the orientation and / or size of the first part of the input), the appearance of the user interface object is changed (eg, the user interface object is transformed or user) according to the second object manipulation behavior. Resizing the interface object (eg, according to the first object manipulation behavior, without updating the appearance of the user interface object) to increase the threshold for the first gesture recognition criterion (eg, first). The first gesture recognition criterion is updated by the movement parameters in the gesture recognition criterion (eg, increasing the threshold required for the movement distance, speed, etc.). For example, before the criteria for recognizing gestures for transforming or scaling an object are met (assuming the criteria for recognizing gestures for rotating an object have not been met before). It is relatively easy to initiate a rotation motion on an object by meeting the criteria for recognizing the gesture for rotation. When the criteria for recognizing gestures for transforming or scaling an object are met, it becomes more difficult to initiate a rotation motion on the object (for example, the criteria for rotating an object are due to movement parameters. Updated with the increased threshold of), the object manipulation behavior is biased towards the manipulation behavior that corresponds to the gesture already recognized and used to manipulate this object. In some embodiments, the appearance of the user interface object is dynamically and continuously modified (eg, showing different sizes, positions, viewpoints, reflections, shadows, etc.) according to the values of the respective movement parameters of the input. The object. In some embodiments, the device has movement parameters (eg, each movement parameter for each type of operation behavior) and changes made to the appearance of the user interface object (eg, each type of operation behavior). Follows preset harmony (eg, each harmony for each type of operational behavior) with each aspect of appearance for. The device increases the threshold for a third gesture recognition criterion (eg, increasing the threshold required for movement parameters (eg, distance traveled, speed, etc.) in the third gesture recognition criterion). ) Updates the third gesture recognition criterion. For example, a gesture for transformation or scaling (assuming the criteria for transformation or scaling was not previously met) before the criteria for recognizing the gesture for rotating the object are met. It is relatively easy to initiate a transformation or scaling operation on an object by meeting the criteria for recognition. Once the criteria for recognizing the gesture to rotate the object are met, it becomes more difficult to initiate a transform or scaling operation on the object (eg, with an increased threshold for movement parameters). Criteria for transformation and scaling have been updated) and object operations are biased towards operational behaviors that are already recognized and correspond to the gestures used to manipulate this object. Before meeting the first gesture recognition criterion or before meeting the second gesture criterion, the device is placed in the first part of the input according to the determination that the input meets the third gesture recognition criterion. Based on (eg, based on the orientation and / or size of the first part of the input), the appearance of the user interface object is changed (eg, the user interface object is resized) according to the third object manipulation behavior (eg, the user interface object is resized). For example, according to the first object manipulation behavior and the second object manipulation behavior, the device increases the threshold for the first gesture recognition criterion (eg, without updating the appearance of the user interface object). The first gesture recognition criterion is updated by the movement parameters in the first gesture recognition criterion (eg, increasing the threshold required for the travel distance, speed, etc.). For example, before the criteria for recognizing gestures for transforming or scaling an object are met (assuming the criteria for recognizing gestures for rotating an object have not been met before). It is relatively easy to initiate a rotation motion on an object by meeting the criteria for recognizing the gesture for rotation. When the criteria for recognizing gestures for transforming or scaling an object are met, it becomes more difficult to initiate a rotation motion on the object (for example, the criteria for rotating an object are due to movement parameters. Updated with the increased threshold of), the object manipulation behavior is biased towards the manipulation behavior that corresponds to the gesture already recognized and used to manipulate this object. In some embodiments, the appearance of the user interface object is dynamically and continuously modified (eg, showing different sizes, positions, viewpoints, reflections, shadows, etc.) according to the values of the respective movement parameters of the input. The object. In some embodiments, the device has movement parameters (eg, each movement parameter for each type of operation behavior) and changes made to the appearance of the user interface object (eg, each type of operation behavior). Follows preset harmony (eg, each harmony for each type of operational behavior) with each aspect of appearance for. The device increases the threshold for the second gesture recognition criterion (eg, increasing the threshold required for the movement parameters (eg, distance traveled, speed, etc.) in the second gesture recognition criterion). ) Updates the second gesture recognition criterion. For example, a gesture for transformation or scaling (assuming the criteria for transformation or scaling was not previously met) before the criteria for recognizing the gesture for rotating the object are met. It is relatively easy to initiate a transformation or scaling operation on an object by meeting the criteria for recognition. Once the criteria for recognizing the gesture to rotate the object are met, it becomes more difficult to initiate a transform or scaling operation on the object (eg, with an increased threshold for movement parameters). Criteria for transformation and scaling have been updated) and object operations are biased towards operational behavior that corresponds to the gestures that are already recognized and used to manipulate this object. Updating an object according to the third object manipulation behavior in response to a portion of the detected input only if the corresponding third gesture recognition criterion is met (eg, the first object manipulation). (Or by helping users avoid accidentally performing a third object operation while attempting to provide input to perform a second object operation) to improve device usability. .. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、複数のオブジェクト操作挙動は、第3のジェスチャ認識基準を満たす入力に応じて実行される第3のオブジェクト操作挙動を含み(19032)、第1のジェスチャ認識基準又は第2のジェスチャ認識基準を満たす前に、入力の第1の部分は、第3のジェスチャ認識基準を満たしておらず、入力の第1の部分が、第1のジェスチャ認識基準又は第2のジェスチャ認識基準を満たした後、デバイスは、第3のジェスチャ認識基準のための閾値を増加させることによって、第3のジェスチャ認識基準を更新し、入力の第2の部分は、更新された第1のジェスチャ認識基準又は更新された第2のジェスチャ認識基準を満たす前に、更新された第3のジェスチャ認識基準を満たしていない(例えば、デバイスは、入力の第1の部分が、第1又は第2のジェスチャ認識基準のうちの1つを満たした後、第3のジェスチャ認識基準のための閾値を増加させることによって、第3のジェスチャ認識基準を更新した)。入力の第3の部分を検出することに応じて(19034)、(例えば、入力の第3の部分が、(例えば、更新された、又は、元の)第1又は第2のジェスチャ認識基準を満たしているか否かを考慮することなく、)更新された第3のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、(例えば、(例えば、たとえ入力の第3の部分が元の第1及び第2のジェスチャ認識基準を満たさなくても)第1及び第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更しながら)入力の第3の部分に基づいて(例えば、入力の第3の部分の方向及び/又は大きさに基づいて)、第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を更新する。入力の第3の部分が、更新された第3のジェスチャ認識基準を満たさないとの判定にしたがって、デバイスは、(例えば、(例えば、たとえ入力の第3の部分が元の第1及び第2のジェスチャ認識基準を満たさなくても)第1及び第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更しながら)入力の第3の部分に基づいて、第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することを控える。第2のジェスチャ認識基準、更新された第1のジェスチャ認識基準、及び、更新された第3のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動、第2のオブジェクト操作挙動、及び第3のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された閾値を満たすことによって、第1、第2、及び第3の3つすべてのオブジェクト操作タイプを実行する意図を確立した後、ユーザーへ、第1、第2、及び第3のオブジェクト操作タイプを使用して、オブジェクトを自由に操作する能力をユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the plurality of object manipulation behaviors include a third object manipulation behavior performed in response to an input that meets the third gesture recognition criterion (19032), the first gesture recognition criterion or the second. The first part of the input does not meet the third gesture recognition criterion and the first part of the input is the first gesture recognition criterion or the second gesture recognition criterion. After satisfying, the device updates the third gesture recognition criterion by increasing the threshold for the third gesture recognition criterion, and the second part of the input is the updated first gesture recognition. The device does not meet the updated third gesture recognition criterion before it meets the criterion or the updated second gesture recognition criterion (eg, the device has a first part of the input of the first or second gesture). After satisfying one of the recognition criteria, the third gesture recognition criterion was updated by increasing the threshold for the third gesture recognition criterion). Depending on the detection of the third part of the input (19034), the third part of the input (eg, the updated or original) first or second gesture recognition criterion (eg, updated or original). According to the determination that the updated third gesture recognition criterion is met (without considering whether or not it is met), the device (eg, even if the third part of the input is the original first). And based on a third part of the input (eg, a third of the inputs) (while changing the appearance of the user interface object according to the first and second object manipulation behaviors) (even if it does not meet the second gesture recognition criteria). Update the appearance of the user interface object according to the third object manipulation behavior (based on the orientation and / or size of the portion). According to the determination that the third part of the input does not meet the updated third gesture recognition criteria, the device (eg, (eg, even if the third part of the input is the original first and second). Based on the third part of the input (while changing the appearance of the user interface object according to the first and second object manipulation behaviors) (even if it does not meet the gesture recognition criteria of), according to the third object manipulation behavior. Refrain from changing the appearance of user interface objects. The first object manipulation behavior depends on some of the inputs detected after the second gesture recognition criterion, the updated first gesture recognition criterion, and the updated third gesture recognition criterion are met. Updating objects according to the second object manipulation behavior, and the third object manipulation behavior (eg, satisfying the increased threshold without requiring the user to provide new input). By doing so, after establishing the intent to perform all three object operation types, the first, second, and third, the user can use the first, second, and third object operation types. Improve the usability of the device) by providing the user with the ability to manipulate objects freely. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態(19036)では、入力の第3の部分は、更新された第3のジェスチャ認識基準を満たした。入力の第3の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新した後(例えば、第1のジェスチャ認識基準、及び、更新された第2及び第3のジェスチャ認識基準の両方が満たされた後、又は、第2のジェスチャ認識基準、及び、更新された第1及び第3のジェスチャ認識基準の両方が満たされた後)、デバイスは、(例えば、入力の第1、第2、及び第3の部分において連続的に維持されている同じ接触によって、又は、入力の第1の部分、第2及び第3の部分における接触の終了(例えば、リフトオフ)後に検出された異なる接触によって、)入力の第4の部分を検出する(19038)。入力の第4の部分を検出することに応じて、デバイスは、入力の第4の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する(19040)。これは、入力の第4の部分に基づいて、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第4の部分に基づいて、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第4の部分に基づいて、第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、を含む。例えば、第1のジェスチャ認識基準、及び、更新された第2及び第3のジェスチャ認識基準が満たされた後、又は、第2のジェスチャ認識基準、及び、更新された第1及び第3のジェスチャ認識基準が満たされた後、入力は、元の又は更新された第1、第2、及び第3のジェスチャ認識基準における閾値を考慮することなく、後続して、3つすべてのタイプの操作挙動を引き起こし得る。 In some embodiments (19036), the third portion of the input meets the updated third gesture recognition criterion. After updating the appearance of the user interface object based on the third part of the input (eg, after both the first gesture recognition criterion and the updated second and third gesture recognition criteria have been met. Or, after both the second gesture recognition criterion and the updated first and third gesture recognition criteria have been met), the device (eg, the first, second, and third inputs). By the same contact that is continuously maintained in the part of the input, or by a different contact detected after the end of the contact (eg, lift-off) in the first, second and third parts of the input). The fourth part is detected (19038). In response to detecting the fourth part of the input, the device updates the appearance of the user interface object based on the fourth part of the input (19040). It modifies the appearance of the user interface object according to the first object manipulation behavior based on the fourth part of the input, and to the second object manipulation behavior based on the fourth part of the input. Therefore, it includes changing the appearance of the user interface object and changing the appearance of the user interface object according to the third object operation behavior based on the fourth part of the input. For example, after the first gesture recognition criteria and the updated second and third gesture recognition criteria are met, or after the second gesture recognition criteria and the updated first and third gestures. After the recognition criteria are met, the input follows all three types of operational behavior without considering the thresholds in the original or updated first, second, and third gesture recognition criteria. Can cause.

いくつかの実施形態では、入力の第4の部分は第1のジェスチャ認識基準を満たす入力、第2のジェスチャ認識基準を満たす入力、又は、第3のジェスチャ認識基準を満たす入力を含まない(19042)。例えば、第1のジェスチャ認識基準、及び、更新された第2及び第3のジェスチャ認識基準が満たされた後、又は、第2のジェスチャ認識基準、及び、更新された第1及び第3のジェスチャ認識基準が満たされた後、入力は、元の又は更新された第1、第2、及び第3のジェスチャ認識基準における閾値を考慮することなく、後続して、3つすべてのタイプの操作挙動を引き起こし得る。ジェスチャのために同時に検出される接触数を必要とすることは、(例えば、必要とされる同時検出される接触数未満の入力を提供している間、ユーザーが誤ってオブジェクト操作を実行することを回避することを支援することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the fourth portion of the input does not include an input that meets the first gesture recognition criterion, an input that meets the second gesture recognition criterion, or an input that meets the third gesture recognition criterion (19042). ). For example, after the first gesture recognition criteria and the updated second and third gesture recognition criteria are met, or after the second gesture recognition criteria and the updated first and third gestures. After the recognition criteria are met, the input follows all three types of operational behavior without considering the thresholds in the original or updated first, second, and third gesture recognition criteria. Can cause. Requiring a number of simultaneously detected contacts for a gesture (eg, a user accidentally performing an object operation while providing less than the required number of simultaneously detected contacts). Improve the usability of the device (by helping to avoid). Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態(19044)では、第1のジェスチャ認識基準及び第2のジェスチャ認識基準(及び第3のジェスチャ認識基準)はともに、満たされるために、同時に検出される第1の接触数(例えば、2つの接触)を必要とする。いくつかの実施形態では、変換のために、1本指ジェスチャもまた使用され得、1本指変換閾値は、2本指変換閾値よりも低い。いくつかの実施形態では、2本指変換ジェスチャのために設定された元の及び更新された移動閾値は、接触の重心によるそれぞれ40ポイント及び70ポイントの移動である。いくつかの実施形態では、2本指回転ジェスチャのために設定された元の及び更新された移動閾値は、それぞれ接触による12度及び18度の回転移動である。いくつかの実施形態では、2本指スケーリングジェスチャのために設定された元の及び更新された移動閾値は、それぞれ50ポイント(接触間距離)及び90ポイントである。いくつかの実施形態では、1本指ドラッグジェスチャのために設定された閾値は30ポイントである。 In some embodiments (19044), both the first gesture recognition criterion and the second gesture recognition criterion (and the third gesture recognition criterion) are met, so that the first number of contacts detected at the same time (19044). For example, two contacts) are required. In some embodiments, a one-finger gesture may also be used for conversion, the one-finger conversion threshold being lower than the two-finger conversion threshold. In some embodiments, the original and updated movement thresholds set for the two-finger conversion gesture are movements of 40 points and 70 points, respectively, by the center of gravity of the contact. In some embodiments, the original and updated movement thresholds set for the two-finger rotation gesture are 12 and 18 degree rotation movements by contact, respectively. In some embodiments, the original and updated movement thresholds set for the two-finger scaling gesture are 50 points (inter-contact distance) and 90 points, respectively. In some embodiments, the threshold set for the one-finger drag gesture is 30 points.

いくつかの実施形態(19046)では、第1のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第1のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第2のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。例えば、第1のオブジェクト操作挙動は、図14G~図14Iに関して説明されるように、仮想オブジェクト11002の表示サイズを変更し、第2のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、仮想オブジェクト11002の回転角度を変化させる。いくつかの実施形態では、第2のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第2のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第1のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後の、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。 In some embodiments (19046), the first object manipulation behavior modifies the zoom level or display size of the user interface object (eg, the pinch gesture (eg, the original or updated)). Resizing the object with a pinch gesture (such as moving contacts towards each other after being recognized based on the first gesture recognition criteria), the second object manipulation behavior changes the rotation angle of the user interface object (such as the rotation angle of the user interface object). For example, after the twist / swivel gesture has been recognized by a second gesture recognition criterion (eg, the original or updated), the twist / swivel gesture (eg, such as the movement of a contact around a common point). Changes the viewing perspective of the user interface object around the external or internal axis). For example, the first object manipulation behavior changes the display size of the virtual object 11002 as described for FIGS. 14G-14I, and the second object manipulation behavior is described for FIGS. 14B-14E. In addition, the rotation angle of the virtual object 11002 is changed. In some embodiments, the second object manipulation behavior modifies the zoom level or display size of the user interface object (eg, the pinch gesture (eg, the original or updated) second. The object is resized by a pinch gesture (such as the movement of contacts towards each other after being recognized based on the gesture recognition criteria), and the first object manipulation behavior changes the rotation angle of the user interface object (eg, (eg,). Externally by a twist / swivel gesture, for example, after the twist / swivel gesture has been recognized by the first gesture recognition criterion (eg, the original or updated), eg, the movement of contact around a common point. Or change the viewing perspective of the user interface object around the internal axis).

いくつかの実施形態(19048)では、第1のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第1のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第2のオブジェクト操作挙動が、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変化させる(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってユーザーインターフェースオブジェクトをドラッグする)。例えば、第1のオブジェクト操作挙動は、図14G~図14Iに関して説明されるように、仮想オブジェクト11002の表示サイズを変更し、第2のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、ユーザーインターフェースにおける仮想オブジェクト11002の位置を変化させる。いくつかの実施形態では、第2のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第2のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第1のオブジェクト操作挙動が、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変化させる(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってユーザーインターフェースオブジェクトをドラッグする)。 In some embodiments (19048), the first object manipulation behavior modifies the zoom level or display size of the user interface object (eg, the pinch gesture (eg, the original or updated)). Resizing the object with a pinch gesture (such as moving contacts towards each other after being recognized based on the first gesture recognition criteria), the second object manipulation behavior is the user interface object in the first user interface area. One that changes the position of (eg, after the drag gesture has been recognized by a second gesture recognition criterion (eg, the original or updated), eg, movement of contact in each direction). Drag a user interface object with a finger or two-finger drag gesture). For example, the first object manipulation behavior changes the display size of the virtual object 11002 as described for FIGS. 14G-14I, and the second object manipulation behavior is described for FIGS. 14B-14E. In addition, the position of the virtual object 11002 in the user interface is changed. In some embodiments, the second object manipulation behavior modifies the zoom level or display size of the user interface object (eg, the pinch gesture (eg, the original or updated) second. Resizing the object with a pinch gesture (such as moving contacts towards each other after being recognized based on gesture recognition criteria), the first object manipulation behavior determines the position of the user interface object in the first user interface area. One finger or two to change (eg, after the drag gesture has been recognized by the first gesture recognition criterion (eg, the original or updated), for example, the movement of contact in each direction). Drag the user interface object with the drag gesture of your finger).

いくつかの実施形態(19050)では、第1のオブジェクト操作挙動は、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変更し(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後の、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってオブジェクトをドラッグし)、第2のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。例えば、第1のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、ユーザーインターフェースにおける仮想オブジェクト11002の位置を変更し、第2のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、仮想オブジェクト11002の回転角度を変化させる。いくつかの実施形態では、第2のオブジェクト操作挙動が、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変化させ(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってオブジェクトをドラッグし)、第1のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。 In some embodiments (19050), the first object manipulation behavior changes the position of the user interface object in the first user interface area (eg, the drag gesture (eg, the original or updated). (E) Drag the object with a one-finger or two-finger drag gesture (such as the movement of contact in each direction) after being recognized by the first gesture recognition criteria), the second object manipulation behavior. Changes the rotation angle of the user interface object (eg, after the twist / swivel gesture is recognized by a second gesture recognition criterion (eg, the original or updated), eg around a common point. Twist / swivel gestures (such as moving contacts) change the viewing perspective of the user interface object around the external or internal axis). For example, the first object manipulation behavior modifies the position of the virtual object 11002 in the user interface as described with respect to FIGS. 14B-14E, and the second object manipulation behavior is described with respect to FIGS. 14B-14E. As such, the rotation angle of the virtual object 11002 is changed. In some embodiments, the second object manipulation behavior changes the position of the user interface object in the first user interface area (eg, the drag gesture (eg, the original or updated). After being recognized by 2 Gesture Recognition Criteria (drag an object with a one-finger or two-finger drag gesture, for example, movement of contact in each direction), the first object manipulation behavior is the user interface. Changing the rotation angle of an object (eg, moving a contact around a common point, for example, after the twist / swivel gesture has been recognized by a first gesture recognition criterion (eg, the original or updated). (Like) twist / swivel gestures change the viewing perspective of the user interface object around the external or internal axis).

いくつかの実施形態(19052)では、入力の第1の部分及び入力の第2の部分が、複数の連続して維持された接触によって提供される。デバイスは、複数の連続的に維持された接触のリフトオフを検出した後、追加の第1及び第2のオブジェクト操作挙動を開始するために、(例えば、元の閾値を備えた)第1のジェスチャ認識基準及び第2のジェスチャ認識基準を再確立する(19054)。例えば、接触のリフトオフの後、デバイスは、新たに検出されたタッチ入力のための回転、変換、及びスケーリングのためのジェスチャ認識閾値を再確立する。入力が、接触のリフトオフによって終了された後、入力移動のための閾値を再確立することは、(例えば、新たな入力が提供される毎に、増加された移動閾値を再設定することによって、オブジェクト操作を実行するために必要とされる入力の程度を低減することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力の程度を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19052), a first portion of the input and a second portion of the input are provided by a plurality of consecutively maintained contacts. The device detects a plurality of continuously maintained contact lift-offs and then initiates additional first and second object manipulation behaviors of the first gesture (eg, with the original threshold). Reestablish the recognition criteria and the second gesture recognition criteria (19054). For example, after contact lift-off, the device reestablishes gesture recognition thresholds for rotation, transformation, and scaling for newly detected touch inputs. Reestablishing the threshold for input movement after the input is terminated by the lift-off of the contact (eg, by resetting the increased movement threshold each time a new input is provided). Improve device usability (by reducing the amount of input required to perform object operations). Reducing the degree of input required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態(19056)では、第1のジェスチャ認識基準は、第1の軸の周りの回転に対応し、第2のジェスチャ認識基準は、第1の軸に直交する第2の軸の周りの回転に対応する。いくつかの実施形態では、異なるタイプのジェスチャのための閾値を更新する代わりに、更新することはまた、(例えば、ツイスト/旋回ジェスチャのような)認識されたジェスチャタイプに対応する操作挙動のタイプ内の(例えば、第1の軸の周りの回転と、異なる軸の周りの回転のような)操作挙動の異なるサブタイプのために設定された閾値に当てはまる。例えば、第1の軸の周りの回転が認識され実行されると、異なる軸の周りの回転の閾値セットが更新され(例えば、増加され)、異なる軸の周りの回転をトリガするために、後続する入力によって超えられる必要がある。入力移動が、第2の軸の周りにオブジェクトを回転させるために必要な入力移動のための閾値を超えて増加した場合、第1の軸の周りにオブジェクトを回転させるために必要な入力移動のための閾値を増加させることは、(例えば、第1の軸の周りにオブジェクトを回転させることを試みている間に、ユーザーが誤って第2の軸の周りにオブジェクトを回転させることを回避することを支援することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19056), the first gesture recognition criterion corresponds to rotation around the first axis and the second gesture recognition criterion is of the second axis orthogonal to the first axis. Corresponds to rotation around. In some embodiments, instead of updating the thresholds for different types of gestures, updating is also the type of operational behavior that corresponds to the recognized gesture type (eg, twist / swivel gesture). It applies to the thresholds set for different subtypes of operational behavior within (eg, rotation around the first axis and rotation around different axes). For example, when a rotation around a first axis is recognized and executed, a threshold set of rotations around a different axis is updated (eg, increased) to trigger a subsequent rotation around a different axis. Must be exceeded by the input you make. If the input movement increases beyond the threshold for input movement required to rotate the object around the second axis, then the input movement required to rotate the object around the first axis. Increasing the threshold for (eg, avoids the user accidentally rotating the object around the second axis while trying to rotate the object around the first axis. Improve the operability of the device (by helping it). Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

図19A~図19Hにおける動作が説明された特定の順序は、単なる例であり、説明された順序は、動作が実行され得る唯一の順序であることを示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、20000)に関して本明細書で説明された他の処理の詳細はまた、図19A~図19Hに関して上述された方法19000に類似する方式でも適用可能であることが注目されるべきである。例えば、方法19000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡略のために、これら詳細は、本明細書において繰り返されない。 It is understood that the particular order in which the actions are described in FIGS. 19A-19H is merely an example and the described order is not intended to indicate that the actions are the only order in which they can be performed. Should be. Those of skill in the art will recognize various techniques for reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 800, 900, 1000, 16000, 17000, 18000, 20000) are also shown in FIG. 19A. It should be noted that with respect to FIG. 19H, a method similar to the method 19000 described above can also be applied. For example, the contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / or animations described above with reference to Method 19000 are optionally other methods described herein. The contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / / described herein with reference to (eg, methods 800, 900, 1000, 16000, 17000, 18000, 20000). Alternatively, it has one or more of the features consisting of animation. For the sake of brevity, these details are not repeated herein.

図20A~図20Fは、デバイスの移動が、仮想オブジェクトを、1つ以上のデバイスカメラの表示される視野の外側へ移動させるとの判定にしたがって、音声警報を生成する方法20000を例示するフロー図である。方法20000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)と、1つ以上の入力デバイス(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)と、1つ以上の音声出力生成器と、1つ以上のカメラとを有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。方法20000におけるいくつかの動作は、オプションで、組み合わされ、及び/又は、いくつかの動作の順序は、オプションで、変更される。 20A-20F exemplify a method 20000 for generating a voice alert according to a determination that movement of a device moves a virtual object out of the field of view displayed by one or more device cameras. Is. Method 20000 serves as both a display generation component (eg, a display, a projector, a heads-up display, etc.) and one or more input devices (eg, a touch sensitive surface, or a display generation component and a touch sensitive surface). Display), an electronic device having one or more audio output generators and one or more cameras (eg, device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some actions in method 20000 are optionally combined and / or the order of some actions is optionally changed.

デバイスは(例えば、カメラを含むデバイスの周りの物理的環境の拡張現実ビューに仮想オブジェクトを配置するための要求に応じて(例えば、仮想オブジェクトのステージングビューを用いて表示された「ワールド」ボタン上のタップに応じて))、表示生成コンポーネントによって、1つ以上のカメラの視野の表現を含む仮想オブジェクトの表現を、第1のユーザーインターフェース領域内に表示し(例えば、第1のユーザーインターフェース領域は、カメラを含むデバイスを囲む物理的環境の、拡張現実ビューを表示するユーザーインターフェースである)、この表示することは、仮想オブジェクトの表現と、1つ以上のカメラの視野においてキャプチャされた物理的環境において検出されたプレーンとの間の第1の空間的な関係を維持することを含む(例えば、仮想オブジェクトは、仮想オブジェクトの表現とプレーンとの間の固定された角度が維持されるように、ディスプレイ上に、向き及び位置とともに表示される(例えば、仮想オブジェクトは、プレーン上の固定された場所にとどまる、又は、視野面に沿って回転するように見える)(20002)。例えば、図15Vに図示されるように、仮想オブジェクト11002は、1つ以上のカメラの視野6036を含むユーザーインターフェース領域において表示される。 The device (eg, on the "World" button displayed using the staging view of the virtual object in response to a request to place the virtual object in the augmented reality view of the physical environment around the device, including the camera (eg, on the "world" button displayed using the staging view of the virtual object. (According to a tap on)), the display generation component displays the representation of the virtual object, including the representation of the field of view of one or more cameras, within the first user interface area (eg, the first user interface area). , A user interface that displays an augmented reality view of the physical environment surrounding the device, including the camera), which displays the representation of a virtual object and the physical environment captured in the field of one or more cameras. Includes maintaining a first spatial relationship with the plane detected in (eg, a virtual object so that a fixed angle between the representation of the virtual object and the plane is maintained. Displayed on the display with orientation and position (eg, virtual objects appear to stay in a fixed location on the plane or rotate along the viewing plane) (20002), eg, in FIG. 15V. As shown, the virtual object 11002 is displayed in a user interface area that includes the field of view 6036 of one or more cameras.

デバイスは、1つ以上のカメラの視野を調節するデバイスの移動(例えば、1つ以上のカメラを含むデバイスの横移動及び/又は回転)を検出する(20004)。例えば、図15V~図15Wに関して説明されるように、デバイス100の移動は、1つ以上のカメラの視野を調節する。 The device detects movement of the device that adjusts the field of view of one or more cameras (eg, lateral movement and / or rotation of a device that includes one or more cameras) (20004). For example, as described with respect to FIGS. 15V-15W, the movement of the device 100 adjusts the field of view of one or more cameras.

1つ以上のカメラの視野を調節するデバイスの移動を検出することに応じて(20006)、1つ以上のカメラの視野が調節されると、デバイスは、仮想オブジェクトと、1つ以上のカメラの視野内で検出されたプレーンとの間の第1の空間的な関係(例えば、向き及び/又は位置)にしたがって、第1のユーザーインターフェース領域において、仮想オブジェクトの表現の表示を調節し、(例えば、仮想オブジェクトの表現と、1つ以上のカメラの視野においてキャプチャされた物理的環境内で検出されたプレーンとの間の空間的な関係が、デバイスの移動中、物理的環境に対して固定され続けるので、)デバイスの移動が、閾値量(例えば、100%、50%、又は20%)より多くの仮想オブジェクトを、1つ以上のカメラの視野の表示部分の外側へ移動させるとの判定にしたがって、デバイスは、1つ以上の音声出力生成器によって、第1の音声警報(例えば、閾値量より多くの仮想オブジェクトが、カメラビューにはもはや表示されないことを示す音声アナウンスメント)を生成する。例えば、図15Wに関して説明されるように、仮想オブジェクト11002を、1つ以上のカメラの視野6036の表示部分の外側へ移動させるデバイス100の移動に応じて、音声警報15118が生成される。デバイスの移動が、仮想オブジェクトを、表示された拡張現実ビューの外側へ移動させるとの判定にしたがって音声出力を生成することは、デバイスの移動が、拡張現実ビューに関して、仮想オブジェクトの表示に対して影響を与えた程度を示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、仮想オブジェクトがディスプレイを離れたか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Adjusting the Field of One or More Cameras When the field of view of one or more cameras is adjusted in response to detecting the movement of the device (20006), the device is a virtual object and one or more cameras. According to the first spatial relationship (eg, orientation and / or position) with the plane detected in the field of view, the display of the representation of the virtual object is adjusted in the first user interface area (eg, orientation and / or position). , The spatial relationship between the representation of the virtual object and the planes detected within the physical environment captured in the field of view of one or more cameras is fixed to the physical environment while the device is moving. To determine that movement of the device moves more virtual objects than the threshold amount (eg, 100%, 50%, or 20%) to the outside of the display portion of the field of view of one or more cameras. Thus, the device produces a first voice alert (eg, a voice announcement indicating that more virtual objects than the threshold amount are no longer displayed in the camera view) by one or more voice output generators. For example, as described with respect to FIG. 15W, voice alert 15118 is generated in response to the movement of the device 100 to move the virtual object 11002 out of the display portion of the field of view 6036 of one or more cameras. Producing audio output according to the determination that moving the device moves the virtual object out of the displayed augmented reality view means that moving the device relative to the display of the virtual object with respect to the augmented reality view. Provide users with feedback that indicates the extent of their impact. Providing improved feedback to the user (eg, did the virtual object leave the display without disturbing the display with the additional information displayed and without requiring the user to see the display? By providing information that allows the user to perceive whether or not it is), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1の音声警報を出力することは、1つ以上のカメラの視野の表示された部分において見えるままである仮想オブジェクトの量(例えば、見えるままである仮想オブジェクトの量は、現在のビューイング視点からの仮想オブジェクトの合計サイズに対して測定される(例えば、20%、25%、50%等))(例えば、音声出力は、「オブジェクトxは、20%見えています」と言う)を示す音声出力を生成することを含む(20008)。例えば、図15X~図15Yに関して説明されるように、仮想オブジェクト11002を、1つ以上のカメラの視野6036の表示部分の外側に部分的に移動させるデバイス100の移動に応じて、「椅子は90%見え、スクリーンの20%を占有しています」を示すアナウンスメント15128を含む音声警報15126が生成される。表示された拡張現実ビューにおいて見える仮想オブジェクトの量を示す音声出力を生成することは、(例えば、デバイスの移動が変化した程度と、仮想オブジェクトが見える度合とを示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、仮想オブジェクトがディスプレイを離れたか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, outputting a first voice alert is the amount of virtual objects that remain visible in the visible portion of the field of view of one or more cameras (eg, the amount of virtual objects that remain visible). Is measured against the total size of the virtual object from the current viewing point of view (eg, 20%, 25%, 50%, etc.)) (For example, the audio output is "object x is 20% visible." Includes producing an audio output indicating (to say "masu") (20008). For example, as described with respect to FIGS. 15X-15Y, "the chair is 90" in response to the movement of the device 100 to partially move the virtual object 11002 out of the display portion of the field of view 6036 of one or more cameras. A voice alarm 15126 is generated that includes an announcement 15128 that "is visible and occupies 20% of the screen." Generating audio output that indicates the amount of virtual objects visible in the displayed augmented reality view provides feedback to the user (eg, indicating how much the movement of the device has changed and how much the virtual objects are visible). Providing improved feedback to the user (eg, did the virtual object leave the display without disturbing the display with the additional information displayed and without requiring the user to see the display? By providing information that allows the user to perceive whether or not it is), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1の音声警報を出力することは、仮想オブジェクトによって閉じ込められた視野の表示部分の量(例えば、仮想オブジェクトによって占有されている物理的環境の拡張現実ビューの量(例えば、20%、25%、50%等))(例えば、音声出力は、「ワールドビューの15%を占有するオブジェクトx」と言うアナウンスメントを含む)を示す音声出力を生成することを含む(20010)。いくつかの実施形態では、音声出力はまた、仮想オブジェクトの表示状態における変化を引き起こした、ユーザーによって実行されるアクションの説明を含む。例えば、音声出力は、「デバイスが左に移動しました。オブジェクトxは20%見え、ワールドビューの15%を占有しています。」と言うアナウンスメントを含む。例えば、図15Yでは、「椅子は90パーセント見え、スクリーンの20パーセントを占有しています」を示すアナウンスメント15128を含む音声警報15126が生成される。仮想オブジェクトによって閉じ込められた拡張現実ビューの量を示す音声出力を生成することは、(例えば、デバイスの移動が、拡張現実ビューが閉じ込まれている度合いを変化させた程度を示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、ディスプレイに対する仮想オブジェクトのサイズをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, outputting the first voice alert is the amount of display portion of the field of view confined by the virtual object (eg, the amount of augmented reality view of the physical environment occupied by the virtual object (eg). (Eg, 20%, 25%, 50%, etc.)) (eg, audio output comprises generating an audio output indicating "an object x occupying 15% of the world view") (eg, 20%, 25%, 50%, etc.). 2010). In some embodiments, the audio output also includes a description of the action performed by the user that caused the change in the display state of the virtual object. For example, the audio output contains an announcement that says, "The device has moved to the left. Object x is 20% visible and occupies 15% of the world view." For example, in FIG. 15Y, a voice alarm 15126 is generated that includes an announcement 15128 indicating "the chair is 90 percent visible and occupies 20 percent of the screen." Producing audio output that shows the amount of augmented reality view trapped by a virtual object gives feedback (for example, how much device movement changes the degree to which the augmented reality view is closed). Provide to. Providing improved feedback to the user (eg, without disturbing the display with additional information displayed and without requiring the user to see the display, reduces the size of the virtual object to the display. By providing information that allows the user to perceive), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、1つ以上のカメラの視野の表現に対応するタッチ感知面上の場所における接触による入力を検出する(例えば、物理的環境の拡張現実ビューを表示するタッチスクリーンの一部におけるタップ入力又は二重タップ入力を検出する)(20012)。この入力を検出することに応じて、また、仮想オブジェクトによって占有されていない1つ以上のカメラの視野の第1の部分に対応するタッチ感知面上の第1の場所において入力が検出されたとの判定にしたがって、デバイスは、第2の音声警報(例えば、タップされた領域における仮想オブジェクトの位置決めの失敗を示すクリック又は機械音)を生成する(20014)。例えば、図15Zに関して説明されるように、仮想オブジェクト11002によって占有されていない1つ以上のカメラの視野6036の一部に対応するタッチスクリーン112上の場所において検出された入力に応じて、デバイスは、音声警報15130を生成する。いくつかの実施形態では、入力を検出することに応じて、仮想オブジェクトによって占有されている1つ以上のカメラの視野の第2の部分に対応する第2の場所において入力が検出されたとの判定にしたがって、第2の音声警報を生成することを控える。いくつかの実施形態では、仮想オブジェクトの位置決めのユーザーの失敗を示す第2の音声警報を生成する代わりに、デバイスは、ユーザーが仮想オブジェクトを位置決めしたことを示す異なる音声警報を生成する。いくつかの実施形態では、第2の音声警報を生成する代わりに、デバイスは、仮想オブジェクトにおいて実行される動作(例えば、「オブジェクトxが選択されました。」、「オブジェクトxは、デフォルトサイズへリサイズされました」、「オブジェクトxは、デフォルトの向きへ回転されました」等)、又は仮想オブジェクトの状態(例えば、「オブジェクトx、20%見え、ワールドビューの15%を占有しています。)を説明するオーディオアナウンスメントを出力する。仮想オブジェクトによって占有されない表示された拡張現実ビューの一部に対応する場所において入力が検出されることに応じて音声出力を生成することは、(例えば、(例えば、仮想オブジェクトに関する情報を取得するため、及び/又は、操作を実行するため)異なる場所において提供されねばならない入力を示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、入力が成功裡に仮想オブジェクトへ接続したか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects a contact input at a location on the touch-sensitive surface that corresponds to the representation of the field of view of one or more cameras (eg, a touch screen that displays an augmented reality view of the physical environment). (Detects tap input or double tap input in a part of) (2012). In response to detecting this input, the input was detected at a first location on the touch-sensitive surface corresponding to the first portion of the field of view of one or more cameras not occupied by the virtual object. According to the determination, the device generates a second voice alert (eg, a click or mechanical sound indicating a failure to position the virtual object in the tapped area) (2014). For example, as described with respect to FIG. 15Z, the device responds to an input detected at a location on the touch screen 112 that corresponds to a portion of the field of view 6036 of one or more cameras that is not occupied by the virtual object 11002. , Generates a voice alarm 15130. In some embodiments, it is determined that the input was detected at a second location corresponding to a second portion of the field of view of one or more cameras occupied by the virtual object, in response to detecting the input. Therefore, refrain from generating a second voice alarm. In some embodiments, instead of generating a second voice alert indicating the user's failure to position the virtual object, the device generates a different voice alert indicating that the user has positioned the virtual object. In some embodiments, instead of generating a second voice alert, the device performs an action on the virtual object (eg, "object x selected", "object x to default size". "Resized", "Object x has been rotated to the default orientation", etc.), or the state of a virtual object (eg, "Object x, 20% visible, occupies 15% of the world view". ). Producing audio output in response to an input being detected at a location that corresponds to a portion of the displayed augmented reality view that is not occupied by a virtual object (eg,). Providing feedback to the user (indicating input that must be provided in different locations (for example, to obtain information about a virtual object and / or to perform an operation). Providing improved feedback to the user. (For example, the user senses whether the input successfully connected to the virtual object without disturbing the display with the additional information displayed and without requiring the user to see the display. By providing information that allows you to) improve the usability of the device and make the user device interface more efficient, which also allows users to use the device faster and more efficiently. By doing so, the power consumption is reduced and the battery life of the device is improved.

いくつかの実施形態では、第1の音声警報を出力することは、仮想オブジェクトに関して実行された動作を示す音声出力を生成し(例えば、音声出力を生成する前に、デバイスは、現在選択されている動作を判定し、現在選択されている操作を実行するとのユーザーの意思を確認する入力(例えば、二重タップ)に応じて、操作を実行する)、動作の実行後に、結果として得られる仮想オブジェクトの状態を生成することを含む(20016)。例えば、音声出力は、「デバイスは左へ移動しました。オブジェクトxは20%見え、ワールドビューの15%を占有しています」、「オブジェクトxは、30度、時計回りに回転され、オブジェクトは、y軸の周りに50度回転されました」、又は、「オブジェクトxは20%拡大され、ワールドビューの50%を占有しています」と言うアナウンスメントを含む。例えば、図15AH~図15AIに関して説明されるように、仮想オブジェクト11002に関する回転動作の実行に応じて、「椅子が反時計周りに5度回転されました。椅子は今、スクリーンに対してゼロ度回転されました」を示すアナウンスメント15192を含む音声警報15190が生成される。仮想オブジェクトにおいて実行された動作を示す音声出力を生成することは、提供された入力が仮想オブジェクトへどのように影響を与えるのかを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、動作がどのようにして仮想オブジェクトを変えたのかをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, outputting a first voice alert produces a voice output indicating the action performed on the virtual object (eg, before generating the voice output, the device is currently selected. Performs an operation in response to an input (eg, double tap) confirming the user's willingness to perform the currently selected operation), the resulting virtual after the action is performed. Includes generating the state of an object (2016). For example, the audio output is "The device has moved to the left. Object x is 20% visible and occupies 15% of the world view", "Object x is rotated 30 degrees clockwise and the object is , Rotated 50 degrees around the y-axis "or" Object x is magnified 20% and occupies 50% of the world view "includes an announcement. For example, as described for FIGS. 15AH-15AI, "the chair has been rotated 5 degrees counterclockwise. The chair is now zero degrees with respect to the screen," in response to performing a rotation motion with respect to virtual object 11002. A voice alarm 15190 is generated that includes an announcement 15192 indicating "rotated". Generating audio output showing the actions performed on a virtual object provides the user with feedback on how the input provided affects the virtual object. Providing improved feedback to the user (eg, how the behavior is virtual without disturbing the display with the additional information displayed and without requiring the user to see the display. By providing information that allows the user to perceive whether an object has changed), it improves the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態(20018)では、動作の実行後、結果として得られる仮想オブジェクトの状態は1つ以上のカメラの視野にキャプチャされた物理的環境に対応する基準フレームに対する第1の音声警報において出力されたオーディオに説明されている(例えば、オブジェクトを操作した後(例えば、接触ベースのジェスチャ又はデバイスの移動に応じて)、デバイスは、(例えば、物理的環境の拡張現実ビューへ最初に配置された場合、仮想オブジェクトの最初の位置/向きに対して、30度回転された、60度回転された、又は左へ移動したような)オブジェクトの新たな状態を説明する音声を生成する)。例えば、図15AH~図15AIに関して説明されるように、仮想オブジェクト11002に対する回転動作のパフォーマンスに応じて、「椅子は反時計回りに5度回転されました。椅子は今、スクリーンに対してゼロ度回転されました。」を示すアナウンスメント15192を含む音声警報15190が生成される。いくつかの実施形態では、この動作は、(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境の一部の表現に対する仮想オブジェクトの移動を引き起こす)物理的環境に対するデバイスの移動と、物理的環境に対するデバイスの移動に応じた仮想オブジェクトの新たな状態を説明する音声とを含む。オブジェクトに対して動作が実行された後、仮想オブジェクトの状態を示す音声出力を生成することは、動作がどのように仮想オブジェクトを変えたのかをユーザーに感知させることを可能にするフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、動作がどのように仮想オブジェクトを変えたのかをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (20018), after performing the operation, the resulting virtual object state is in the first voice alert to the reference frame corresponding to the physical environment captured in the field of view of one or more cameras. As described in the output audio (eg, after manipulating an object (eg, in response to a contact-based gesture or movement of the device)), the device is first placed (eg, in an augmented reality view of the physical environment). If done, it will generate a voice explaining the new state of the object (such as rotated 30 degrees, rotated 60 degrees, or moved to the left with respect to the initial position / orientation of the virtual object). For example, as described for FIGS. 15AH-15AI, "the chair has been rotated 5 degrees counterclockwise. The chair is now zero degrees with respect to the screen," depending on the performance of the rotation motion against the virtual object 11002. A voice alarm 15190 is generated that includes an announcement 15192 indicating "Rotated." In some embodiments, this behavior involves moving the device to a physical environment (eg, causing the virtual object to move relative to some representation of the physical environment captured in the field of view of one or more cameras). Includes audio explaining the new state of the virtual object as the device moves relative to the physical environment. After the action is performed on the object, generating audio output showing the state of the virtual object gives the user feedback that allows the user to perceive how the action changed the virtual object. offer. Providing improved feedback to users (eg, how virtual objects behave without disturbing the display with additional information displayed and without requiring the user to see the display. By providing information that allows the user to perceive what has changed), it improves the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、第1の音声警報の生成後、1つ以上のカメラの視野を更に調節するデバイスの追加の移動(例えば、1つ以上のカメラを含むデバイスの横移動及び/又は回転)を検出する(20020)。例えば、図15W~図15Xに関して説明されるように、デバイス100の移動は更に、(15V~15Wからのデバイス100の移動に応じて生じる1つ以上のカメラの視野の調節にしたがって)1つ以上のカメラの視野を更に調節する。1つ以上のカメラ(20022)の視野を更に調節するデバイスの追加の移動を検出することに応じて、デバイスは、1つ以上のカメラの視野が更に調節されると、仮想オブジェクトと、1つ以上のカメラの視野内で検出されたプレーンとの間の第1の空間的な関係(例えば、向き及び/又は位置)にしたがって、第1のユーザーインターフェース領域における仮想オブジェクトの表現の表示を調節し、(例えば、仮想オブジェクトの表現と、1つ以上のカメラの視野内でキャプチャされた物理的環境内で検出されたプレーンとの間の空間的な関係は、物理的環境に対するデバイスの移動中、固定されたままであるので、)デバイスの追加の移動が、仮想オブジェクトの第2の閾値より多い量(例えば、50%、80%、又は100%)を、1つ以上のカメラの視野の表示された部分内に移動させるとの判定にしたがって、デバイスは、1つ以上の音声出力生成器によって、第3の音声警報(例えば、仮想オブジェクトの閾値より多い量が、カメラ視野へ戻されることを示すアナウンスメントを含む音声出力)を生成する。例えば、図15Xに関して説明されるように、仮想オブジェクト11002を、1つ以上のカメラの視野6036の表示された部分へ移動させるデバイス100の移動に応じて、(例えば、「椅子が今、ワールドに投影されており、100%見え、スクリーンの10パーセントを占有しています」と言うアナウンスメントを含む)音声警報15122が生成される。デバイスの移動が、仮想オブジェクトを、表示された拡張現実ビューへ移動させるとの判定にしたがって、音声出力を生成することは、デバイスの移動が、拡張現実ビューに関して、仮想オブジェクトの表示に対して影響を与えた程度を示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、仮想オブジェクトがディスプレイの中へ移動したか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device further adjusts the field of view of one or more cameras after the generation of the first voice alarm (eg, lateral movement of the device including one or more cameras). / Or rotation) is detected (20020). For example, as described with respect to FIGS. 15W-15X, the movement of the device 100 is further one or more (according to the adjustment of the field of view of one or more cameras caused by the movement of the device 100 from 15V to 15W). Further adjust the field of view of the camera. Further Adjusting the Field of View of One or More Cameras (20022) In response to detecting additional movement of the device, the device will further adjust the field of view of one or more cameras with a virtual object and one. The display of the representation of the virtual object in the first user interface area is adjusted according to the first spatial relationship (eg, orientation and / or position) with the plane detected in the field of view of the camera as described above. , (For example, the spatial relationship between the representation of a virtual object and the planes detected within the physical environment captured within the field of view of one or more cameras is that the device is moving relative to the physical environment. The additional movement of the device (because it remains fixed) displays an amount (eg, 50%, 80%, or 100%) greater than the second threshold of the virtual object in the field of view of one or more cameras. According to the determination to move within the portion, the device indicates that one or more audio output generators return a third audio alert (eg, an amount greater than the threshold of the virtual object) to the camera field of view. Generate audio output) including announcements. For example, as described with respect to FIG. 15X, in response to the movement of the device 100 to move the virtual object 11002 to the displayed portion of the field of view 6036 of one or more cameras (eg, "the chair is now in the world". A voice alert 15122 is generated (including an announcement that it is projected, 100% visible, and occupies 10% of the screen. " Producing audio output according to the determination that moving the device moves the virtual object to the displayed augmented reality view means that moving the device affects the display of the virtual object with respect to the augmented reality view. Provide feedback to the user to indicate the degree of giving. Providing improved feedback to the user (eg, without disturbing the display with additional information displayed and without requiring the user to see the display, allows the virtual object to enter the display. By providing information that allows the user to perceive whether or not they have moved), it improves the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域における仮想オブジェクトと、仮想オブジェクトへ適用可能な複数のオブジェクト操作タイプのうちの第1のオブジェクト操作タイプとの表現が、仮想オブジェクトのために現在選択されていることを表示している間、デバイスは、仮想オブジェクトへ適用可能な別のオブジェクト操作タイプへ切り換える要求を検出する(例えば、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所における接触(例えば、水平方向における接触の移動を含む)によるスワイプ入力を検出する)(20024)。例えば、図15AGに関して説明されるように、時計回りの回転制御15170が現在選択されている一方、(仮想オブジェクト15160を反時計回りに回転させるために)反時計回り回転制御15180へ切り換えるためのスワイプ入力が選択される。仮想オブジェクトへ適用可能な別のオブジェクト操作タイプへ切り換えるための要求を検出することに応じて、デバイスは、仮想オブジェクトへ適用可能な複数のオブジェクト操作タイプの中から、第2のオブジェクト操作タイプを命名する音声出力(例えば、音声出力は、「オブジェクトをx軸の周りに回転させて下さい」、「オブジェクトをリサイズして下さい」、又は「プレーン上でオブジェクトを移動させて下さい」等と言うアナウンスメントを含む)を生成し、第2のオブジェクト操作タイプは、第1のオブジェクト操作タイプとは異なる(20026)。例えば、図15AHにおいて、図15AGに関して説明された要求の検出に応じて、アナウンスメント15184(「選択されました:反時計回りに回転させて下さい」)を含む音声警報15182が生成される。いくつかの実施形態では、デバイスは、同じ方向における連続したスワイプ入力に応じて、所定の適用可能なオブジェクト操作タイプのリストを反復する。いくつかの実施形態では、直前のスワイプ入力から逆方向におけるスワイプ入力を検出することに応じて、デバイスは、仮想オブジェクトへ提供可能な、以前にアナウンスされたオブジェクト操作タイプ(例えば、最後にアナウンスされたオブジェクト操作タイプの前のもの)を命名するアナウンスメントを含む音声出力を生成する。いくつかの実施形態では、デバイスは、仮想オブジェクトへ適用可能な各オブジェクト操作タイプのための対応する制御を表示しない(例えば、ジェスチャによって開始される動作(例えば、回転、リサイズ、変換等)のために表示されたボタン又は制御は存在しない)。オブジェクト操作タイプを切り換える要求に応じて音声出力を生成することは、切換動作が実行されたことを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、切換入力が成功裡に実行されたことを確認する情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the virtual object in the first user interface area and the first object operation type of the plurality of object operation types applicable to the virtual object is currently selected for the virtual object. While displaying that, the device detects a request to switch to another object operation type applicable to the virtual object (eg, a first user displaying a representation of the field of view of one or more cameras). Detects swipe inputs due to contact (eg, including movement of the contact in the horizontal direction) at a location on the touch sensitive surface corresponding to a portion of the interface area) (20024). For example, as described with respect to FIG. 15AG, a swipe to switch to counterclockwise rotation control 15180 (to rotate the virtual object 15160 counterclockwise) while clockwise rotation control 15170 is currently selected. Input is selected. In response to detecting a request to switch to another object operation type applicable to a virtual object, the device names a second object operation type out of multiple object operation types applicable to the virtual object. Audio output (for example, audio output is an announcement such as "Rotate the object around the x-axis", "Resize the object", or "Move the object on the plane". The second object operation type is different from the first object operation type (20032). For example, in FIG. 15AH, a voice alarm 15182 containing an announcement 15184 ("selected: rotate counterclockwise") is generated in response to the detection of the request described with respect to FIG. 15AG. In some embodiments, the device iterates over a given list of applicable object manipulation types in response to successive swipe inputs in the same direction. In some embodiments, in response to detecting a swipe input in the opposite direction from the previous swipe input, the device can provide a previously announced object operation type (eg, last announced) to the virtual object. Produces audio output with an announcement naming the object (previous to the object operation type). In some embodiments, the device does not display the corresponding controls for each object operation type applicable to the virtual object (eg, because of gesture-initiated actions (eg, rotation, resizing, transforming, etc.)). There is no button or control displayed on). Generating audio output in response to a request to switch object operation types provides the user with feedback that the switching operation has been performed. Providing improved feedback to the user (eg, without disturbing the display with the additional information displayed and without requiring the user to see the display, the switch input is successful. (By providing information to confirm that it has been done) to improve the usability of the device and make the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、仮想オブジェクトへ適用可能な複数のオブジェクト操作タイプの中から、第2のオブジェクト操作タイプを命名する音声出力(例えば、音声出力は、「オブジェクトをx軸の周りに回転させて下さい」、「オブジェクトをリサイズして下さい」、又は「プレーン上でオブジェクトを移動させて下さい」等と言うアナウンスメントを含む)を生成した後(20028)、デバイスは、現在選択されているオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出する(例えば、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所における接触による二重タップ入力を検出する)。例えば、図15AHに関して説明されるように、仮想オブジェクト11002を反時計回りに回転させるための二重タップ入力が検出される。現在選択されているオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出することに応じて、デバイスは、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行する(例えば、仮想オブジェクトをy軸の周りに5度回転させる、又は、オブジェクトのサイズを5%増加させる、又は、オブジェクトをプレーン上で20画素移動させる)、(例えば、第2のオブジェクト操作タイプにしたがって第1のユーザーインターフェース領域における仮想オブジェクトの表現の表示を調節する)(20030)。例えば、図15AIにおいて、15AHに関して説明された要求の検出に応じて、仮想オブジェクト11002が、反時計回りに回転される。いくつかの実施形態では、デバイスは、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行することに加えて、仮想オブジェクトに関して実行されたオブジェクト操作挙動と、オブジェクト操作挙動の実行後、結果として得られる仮想オブジェクトの状態とを示すアナウンスメントを含む音声出力を出力する。例えば、図15AIにおいて、アナウンスメント15192(「椅子が5度反時計回りに回転しました。椅子は今、スクリーンに対してゼロ度回転されました。」)を含む音声出力15190が生成される。動作が選択されている間に検出された入力に応じてオブジェクト操作動作を実行することは、操作を実行するための追加の制御オプションを提供する(例えば、ユーザーが、2接触入力を必要とするのではなく、タップ入力を提供することによって操作を実行することを可能にする)。表示された追加制御でユーザーインターフェースを乱すことなく、入力を提供するための追加の制御オプションを提供することは、(例えば、マルチコンタクトジェスチャへ提供するための制限された能力を有するユーザーへ、オブジェクトを操作するためのオプションを提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, an audio output naming a second object manipulation type from among a plurality of object manipulation types applicable to a virtual object (eg, the audio output "rotates the object around the x-axis". After generating (including announcements such as "Please", "Please resize the object", or "Move the object on the plane") (20028), the device is the currently selected object. Object corresponding to the operation type A location on the touch-sensitive surface that corresponds to a portion of the first user interface area that displays a representation of the field of view of one or more cameras (eg, displaying a representation of the field of view of one or more cameras) to detect a request to perform an operation behavior. Detects double tap input due to contact in). For example, as described with respect to FIG. 15AH, a double tap input for rotating the virtual object 1102 counterclockwise is detected. In response to detecting a request to perform an object operation behavior corresponding to the currently selected object operation type, the device performs the object operation behavior corresponding to the second object operation type (eg, virtual). Rotate the object 5 degrees around the y-axis, or increase the size of the object by 5%, or move the object 20 pixels on the plane) (eg, the first according to the second object operation type). Adjust the display of the representation of virtual objects in the user interface area) (20030). For example, in FIG. 15AI, the virtual object 11002 is rotated counterclockwise in response to the detection of the request described for 15AH. In some embodiments, the device performs the object manipulation behavior corresponding to the second object manipulation type, as well as the object manipulation behavior performed on the virtual object and, as a result, after performing the object manipulation behavior. Outputs audio output including an announcement indicating the state of the obtained virtual object. For example, in FIG. 15AI, an audio output 15190 containing an announcement 15192 (“The chair has rotated 5 degrees counterclockwise. The chair has now been rotated zero degrees with respect to the screen.”) Is generated. Performing an object operation action in response to an input detected while the action is selected provides additional control options for performing the operation (eg, the user requires two-contact input). Allows you to perform operations by providing tap input instead of). Providing additional control options to provide input without disturbing the user interface with the additional controls displayed is an object (eg, to users with limited ability to provide to multi-contact gestures). By providing options for manipulating the device), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、仮想オブジェクトへ適用可能な別のオブジェクト操作タイプへ切り換えるための要求を検出することに応じて(20032)、第2のオブジェクト操作タイプが連続的に調節可能な操作タイプであるとの判定にしたがって、デバイスは、第2のオブジェクト操作タイプが連続的に調節可能な操作タイプであることを示すために、第2のオブジェクト操作タイプを命名する音声出力と連携して音声警報を生成し(例えば、第2のオブジェクト操作タイプを命名するオーディオアナウンスメント(例えば、オブジェクトをy軸の周りに時計回りに回転させて下さい)の後、「調節可能」と言う音声出力を出力し)、デバイスは、(例えば、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所における接触によって二重タップ入力を検出した後、)1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所におけるスワイプ入力を検出することを含む、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出し、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出することに応じて、デバイスは、スワイプ入力の大きさに対応する量、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行する(例えば、スワイプ入力の大きさが、第1の量であるか、第1の量よりも大きい第2の量であるかに依存して、仮想オブジェクトをy軸の周りに5度又は10度回転させるか、又は、オブジェクトのサイズを、5%又は10%増加させるか、又は、オブジェクトをプレーン上で20画素又は40画素移動させる)。例えば、図15J~図15Kに関して説明されるように、時計回りの回転制御15038が現在選択されている間、ズーム制御15064へ切り換えるスワイプ入力が検出される。アナウンスメント15068(「スケール:調節可能」)を含む音声警報15066が生成される。図15K~図15Lに関して説明されるように、仮想オブジェクト11002へズームインするためのスワイプ入力が検出され、この入力に応じて、仮想オブジェクト11002に対してズーム動作が実行される(図15K~図15Lの例示的な例では、ステージングビューインターフェース6010が表示されている間、連続的に調節可能な操作のための入力が検出されるが、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所において類似の入力が検出され得ることが認識されるであろう)。いくつかの実施形態では、デバイスは、第2のオブジェクト操作挙動を実行することに加えて、仮想オブジェクトに関して実行されたオブジェクト操作挙動の量と、その量までのオブジェクト操作挙動の実行後、結果として得られる仮想オブジェクトの状態とを示すオーディオアナウンスメントを出力する。スワイプ入力に応じてオブジェクト操作動作を実行することは、動作を実行するための追加の制御オプションを提供する(例えば、2接触入力を必要とするのではなく、スワイプ入力を提供することによって、ユーザーが操作を実行することを可能にする)。表示された追加の制御でユーザーインターフェースを乱すことなく、入力を提供するための追加の制御オプションを提供することは、(例えば、マルチコンタクトジェスチャを提供する制限された能力を有するユーザーへ、オブジェクトを操作するためのオプションを提供することによって、)ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the second object operation type is a continuously adjustable operation type in response to detecting a request to switch to another object operation type applicable to the virtual object (20032). According to the determination to be, the device performs a voice alert in conjunction with a voice output naming the second object operation type to indicate that the second object operation type is a continuously adjustable operation type. (For example, an audio announcement naming a second object operation type (eg, rotate the object clockwise around the y-axis), then output an audio output that says "adjustable". ), The device (eg, after detecting a double tap input by contact at a location on the touch sensitive surface corresponding to a portion of the first user interface area displaying a representation of the field of view of one or more cameras). ) Corresponds to a second object operation type, including detecting a swipe input at a location on the touch sensitive surface that corresponds to a portion of the first user interface area that displays a representation of the field of view of one or more cameras. In response to detecting a request to perform an object operation behavior and a request to perform an object operation behavior corresponding to the second object operation type, the device corresponds to the size of the swipe input. Amount, performing object manipulation behavior corresponding to a second object manipulation type (eg, whether the swipe input is a first quantity or a second quantity larger than the first quantity). Depending on whether you rotate the virtual object 5 or 10 degrees around the y-axis, or increase the size of the object by 5% or 10%, or move the object 20 or 40 pixels on the plane. Let). For example, as described with respect to FIGS. 15J-15K, a swipe input to switch to zoom control 15064 is detected while clockwise rotation control 15038 is currently selected. A voice alarm 15066 is generated that includes an announcement 15068 (“scale: adjustable”). As described with respect to FIGS. 15K to 15L, a swipe input for zooming in on the virtual object 11002 is detected, and a zoom operation is executed on the virtual object 11002 in response to this input (FIGS. 15K to 15L). In an exemplary example of, while the staging view interface 6010 is displayed, inputs for continuously adjustable operations are detected, but a first display of a representation of the field of view of one or more cameras. It will be recognized that similar inputs can be detected at locations on the touch sensitive surface that correspond to a portion of the user interface area). In some embodiments, the device performs a second object manipulation behavior, as well as the amount of object manipulation behavior performed on the virtual object and, as a result, after performing the object manipulation behavior up to that amount. Outputs an audio announcement indicating the state of the obtained virtual object. Performing an object operation action in response to a swipe input provides additional control options for performing the action (eg, by providing a swipe input rather than requiring a two-contact input). Allows the operation to be performed). Providing additional control options to provide input without disturbing the user interface with the additional controls displayed (eg, to users with limited ability to provide multi-contact gestures) Make the user device interface more efficient (by providing options for operation). It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域において仮想オブジェクトの表現を表示する前に、デバイスは、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)において仮想オブジェクトの表現を表示し、第2のユーザーインターフェース領域は、1つ以上のカメラの視野の表現を含んでいない(例えば、第2のユーザーインターフェース領域は、カメラの視野においてキャプチャされた物理的環境において検出されたプレーンに対する固定された関係を維持することなく、仮想オブジェクトが操作(例えば、回転、リサイズ、及び移動)され得るステージングユーザーインターフェースである)(20034)。第2のユーザーインターフェース領域における仮想オブジェクトと、仮想オブジェクトへ適用可能な複数の動作のうちの第1の動作との表現が、仮想オブジェクトのために現在選択されていることを表示している間、デバイスは、(例えば、第2のユーザーインターフェース領域における仮想オブジェクトへ適用可能なオブジェクト操作タイプ(例えば、リサイズ、回転、傾斜等)へ、又は、第2のユーザーインターフェース領域における仮想オブジェクトへ適用可能なユーザーインターフェース動作(例えば、2Dユーザーインターフェースへ戻る、物理的環境における拡張現実ビューへオブジェクトをドロップする)へ切り換える要求を含む)仮想オブジェクトへ適用可能な別の動作へ切り換える要求を検出する(例えば、第1のユーザーインターフェース領域に対応するタッチ感知面上の場所における接触(例えば、水平方向における接触の移動を含む)によるスワイプ入力を検出することを含む要求を検出すること)(20036)。例えば、図15F~図15Gに関して説明されるように、ステージングユーザーインターフェース6010が表示され、チルトダウン制御15022が現在選択されている間、時計回り制御15038へ切り換えるためのスワイプ入力が検出される。第2のユーザーインターフェース領域において仮想オブジェクトへ適用可能な別の動作へ切り換える要求を検出することに応じて、デバイスは、仮想オブジェクトへ適用可能な複数の動作のうち第2の動作を命名する音声出力を生成し(例えば、音声出力は、「x軸の周りにオブジェクトを回転させて下さい」、「オブジェクトをリサイズして下さい」、「ディスプレイへ向けてオブジェクトを傾けて下さい」、又は「拡張現実ビューでオブジェクトを表示して下さい」等)と言うアナウンスメントを含む)、第2の動作は、第1の動作とは異なる(20038)。いくつかの実施形態では、デバイスは、同じ方向における連続したスワイプ入力に応じて、所定の適用可能な動作のリストを反復する。例えば、図15Gでは、図15Fに関して説明された要求の検出に応じて、アナウンスメント15042(「選択されました:時計回り回転ボタン」)を含む音声警報15040が生成される。操作タイプを切り換える要求に応じて、選択された操作タイプを命名する音声出力を生成することは、切換入力が成功裡に受信されたことを示すフィードバックをユーザーへ提供する。操作タイプを切り換える要求に応じて、選択された動作タイプを命名する音声出力を生成することは、切換入力が成功裡に受信されたことを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、選択された制御が変更された場合をユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device displays a representation of the virtual object in a second user interface area (eg, a staging user interface) before displaying the representation of the virtual object in the first user interface area. The two user interface areas do not contain a representation of the field of view of one or more cameras (eg, the second user interface area is fixed relative to the plane detected in the physical environment captured in the field of view of the camera. A staging user interface in which virtual objects can be manipulated (eg, rotated, resized, and moved) without maintaining relationships) (20034). While displaying that the representation of the virtual object in the second user interface area and the first of the plurality of actions applicable to the virtual object is currently selected for the virtual object. The device is a user applicable to an object operation type (eg, resizing, rotating, tilting, etc.) applicable to a virtual object in the second user interface area, or to a virtual object in the second user interface area. Detects a request to switch to another behavior applicable to a virtual object (eg, including a request to switch back to an interface behavior (eg, returning to a 2D user interface, dropping an object into an augmented reality view in a physical environment)) (eg, first. Detecting a request involving detecting a swipe input due to a contact (eg, including movement of the contact in the horizontal direction) at a location on the touch sensitive surface corresponding to the user interface area of the (20003). For example, as described with respect to FIGS. 15F-15G, the staging user interface 6010 is displayed and a swipe input to switch to clockwise control 15038 is detected while tilt down control 15022 is currently selected. In response to detecting a request to switch to another action applicable to the virtual object in the second user interface area, the device has audio output naming the second action out of the plurality of actions applicable to the virtual object. (For example, for audio output, "Rotate the object around the x-axis", "Resize the object", "Tilt the object towards the display", or "Augmented reality view" The second action is different from the first action (20038). In some embodiments, the device iterates over a given list of applicable actions in response to successive swipe inputs in the same direction. For example, in FIG. 15G, a voice alarm 15040 containing an announcement 15042 (“selected: clockwise rotation button”) is generated in response to the detection of the request described with respect to FIG. 15F. In response to the request to switch the operation type, generating an audio output naming the selected operation type provides the user with feedback indicating that the switching input was successfully received. In response to the request to switch the operation type, generating an audio output naming the selected action type provides the user with feedback indicating that the switch input was successfully received. Providing improved feedback to the user (eg, without disturbing the display with additional information displayed and without requiring the user to see the display, changes the selected controls. By providing information that allows the user to perceive the case), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域において仮想オブジェクトの表現を表示する前に(20040)、1つ以上のカメラの視野の表現を含まない第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)(例えば、第2のユーザーインターフェース領域は、物理的環境におけるプレーンに対して固定された関係を維持することなく、仮想オブジェクトが操作(例えば、回転、リサイズ、及び移動)され得るステージングユーザーインターフェース領域である)において仮想オブジェクトの表現を表示している間、デバイスは、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域における仮想オブジェクトの表現を表示するための要求を検出する(例えば、現在選択されている動作が「拡張現実ビューにおいてオブジェクトを表示して下さい」である場合、及び、デバイスが、(例えば、二重タップ入力の直前に受信された)スワイプ入力に応じて、現在選択されている動作を命名するオーディオアナウンスメントを丁度出力した後、二重タップ入力を検出する)。例えば、図15P~図15Vに関して説明されるように、ステージングユーザーインターフェース6010が表示され、トグル制御6018が選択されている間、1つ以上のカメラの視野6036の表現を含むユーザーインターフェース領域へ、仮想オブジェクト11002の表現を表示するために二重タップ入力が検出される。1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内で、仮想オブジェクトの表現を表示するための要求を検出することに応じて、デバイスは、仮想オブジェクトの表現と、1つ以上のカメラの視野においてキャプチャされた物理的環境内で検出されたプレーンとの間の第1の空間的な関係にしたがって、第1のユーザーインターフェース領域内に、仮想オブジェクトの表現を表示し(例えば、仮想オブジェクトが、拡張現実ビューにおいて表現された物理的環境へドロップされた場合、ステージングビューにおける仮想オブジェクトの回転角度及びサイズが、拡張現実ビューにおいて維持され、視野においてキャプチャされた物理的環境において検出されたプレーンの向きにしたがって、拡張現実ビューにおける傾斜角度がリセットされる)、デバイスは、仮想オブジェクトが、1つ以上のカメラの視野においてキャプチャされた物理的環境に関して拡張現実ビューに配置されたことを示す第4の音声警報を生成する。例えば、図15Vに関して説明されるように、1つ以上のカメラの視野6036の表現を含むユーザーインターフェース領域内に、仮想オブジェクト11002の表現を表示するための入力に応じて、仮想オブジェクト11002の表現が、1つ以上のカメラの視野6036を含むユーザーインターフェース領域内に表示され、アナウンスメント15116(「椅子は今、ワールドに投影され、100パーセント見え、スクリーンの10パーセントを占有しています」)を含む音声警報15114が生成される。拡張現実ビューにオブジェクトを配置するための要求に応じて音声出力を生成することは、仮想オブジェクトを配置する動作が成功裡に実行されたことを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、拡張現実ビューにオブジェクトが表示されたことをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, prior to displaying the representation of the virtual object in the first user interface region (20040), a second user interface region (eg, a staging user) that does not include a representation of the field of view of one or more cameras. Interface) (eg, a second user interface area is a staging user interface where virtual objects can be manipulated (eg, rotated, resized, and moved) without maintaining a fixed relationship to the plane in the physical environment. While displaying the representation of the virtual object in the area), the device detects a request to display the representation of the virtual object in the first user interface area, including the representation of the field of view of one or more cameras. (For example, if the currently selected action is "Show object in augmented reality view", and the device responds to a swipe input (eg, received just before a double tap input). , Detects double-tap input after just outputting an audio announcement naming the currently selected action). For example, as described with respect to FIGS. 15P-15V, while the staging user interface 6010 is displayed and the toggle control 6018 is selected, a virtual to a user interface area containing a representation of the field of view 6036 of one or more cameras. A double tap input is detected to display the representation of object 11002. In response to detecting a request to display a representation of a virtual object within a first user interface area that contains a representation of the field of view of one or more cameras, the device has a representation of the virtual object and one or more. A representation of a virtual object is displayed within the first user interface area according to the first spatial relationship to the plane detected in the physical environment captured in the field of the camera (eg, for example). When a virtual object is dropped into the physical environment represented in the augmented reality view, the rotation angle and size of the virtual object in the staging view is maintained in the augmented reality view and detected in the physical environment captured in the visual field. The tilt angle in the augmented reality view is reset according to the orientation of the plane), that the device is placed in the augmented reality view with respect to the physical environment captured in the field of view of one or more cameras. Generate the fourth voice alarm shown. For example, as described with respect to FIG. 15V, the representation of the virtual object 11002 may be expressed in response to an input for displaying the representation of the virtual object 11002 within a user interface area containing the representation of the field of view 6036 of one or more cameras. Displayed within a user interface area containing one or more cameras' field of view 6036, including announcement 15116 ("The chair is now projected onto the world, 100% visible, occupies 10% of the screen"). A voice alarm 15114 is generated. Producing audio output in response to a request to place an object in an augmented reality view provides the user with feedback that the action of placing the virtual object was successful. Providing improved feedback to the user (for example, the object is displayed in the augmented reality view without disturbing the display with the additional information displayed and without requiring the user to see the display. By providing information that allows the user to perceive what has been done), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第3の音声警報は、1つ以上のカメラの視野の一部に対する仮想オブジェクトの外観についての情報を示す(例えば、第3の音声警報は、「オブジェクトxはワールドに配置され、オブジェクトxは30%見え、スクリーンの90%を占有しています。」と言うアナウンスメントを含む音声出力を含む。)(20042)。例えば、図15Vに関して説明されるように、アナウンスメント15116(「椅子は今、ワールドに投影され、100パーセント見え、スクリーンの10%を占有しています」)を含む音声警報15114が生成される。表示された拡張現実ビューに対して見える仮想オブジェクトの外観を示す音声出力を生成することは、(例えば、拡張現実ビューにおけるオブジェクトの配置が仮想オブジェクトの外観へ影響を与えた程度を示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、拡張現実ビューにおいて、オブジェクトが、どのように表示されているのかをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the third voice alert indicates information about the appearance of the virtual object for a portion of the field of view of one or more cameras (eg, the third voice alert is "object x is in the world". Arranged, the object x is 30% visible and occupies 90% of the screen, including audio output with an announcement.) (20042). For example, as described with respect to FIG. 15V, a voice alarm 15114 containing an announcement 15116 (“The chair is now projected onto the world, is 100% visible and occupies 10% of the screen”) is generated. Producing audio output that shows the appearance of a virtual object that is visible to the displayed augmented reality view provides feedback (for example, how much the placement of the object in the augmented reality view affected the appearance of the virtual object). Provide to users. Providing improved feedback to the user (eg, without disturbing the display with the additional information displayed and without requiring the user to see the display, in the augmented reality view, the object By providing information that allows the user to perceive how it is displayed), it enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、1つ以上のカメラの視野においてキャプチャされた物理的環境に関して拡張現実ビューにおける仮想オブジェクトの配置と連携して触知出力を生成する(20044)。例えば、オブジェクトが、カメラの視野内で検出されたプレーンに配置された場合、デバイスは、プレーン上へのオブジェクトのランディングを示す触知出力を生成する。いくつかの実施形態では、デバイスは、オブジェクトが、オブジェクトのリサイズ中に、所定のデフォルトサイズに達した場合に、触知出力を生成する。いくつかの実施形態では、デバイスは、仮想オブジェクトに関して実行される各動作のために(例えば、事前設定された角度量までの各回転のために、異なるプレーン上へ仮想オブジェクトをドラッグするために、オブジェクトを元の向き及び/又はサイズへリセットする等のために)触知出力を生成する。いくつかの実施形態では、これら触知出力は、実行された動作を説明する対応する音声警報と、仮想オブジェクトの結果状態とに先行する。例えば、図15Vに関して説明されるように、触知出力15118は、1つ以上のカメラの視野6036における仮想オブジェクト11002の配置と連携して生成される。1つ以上のカメラによってキャプチャされた物理的環境に対する仮想オブジェクトの配置と連携して触知出力を生成することは、(例えば、仮想オブジェクトを配置する動作が成功裡に実行されたことを示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された情報でユーザーインターフェースを乱すことなく、仮想オブジェクトの配置がなされたことをユーザーが感知することを可能にするセンサ情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device produces a tactile output in conjunction with the placement of virtual objects in an augmented reality view with respect to the physical environment captured in the field of view of one or more cameras (20044). For example, if an object is placed on a plane detected within the field of view of the camera, the device produces a tactile output indicating the landing of the object on the plane. In some embodiments, the device produces a tactile output when the object reaches a predetermined default size while resizing the object. In some embodiments, the device drags the virtual object onto a different plane for each action performed on the virtual object (eg, for each rotation up to a preset amount of angle). Generate a tactile output (for resetting the object to its original orientation and / or size, etc.). In some embodiments, these tactile outputs precede a corresponding voice alert that describes the action performed and the resulting state of the virtual object. For example, as described with respect to FIG. 15V, the tactile output 15118 is generated in conjunction with the placement of virtual objects 11002 in the field of view 6036 of one or more cameras. Producing tactile output in conjunction with the placement of virtual objects with respect to the physical environment captured by one or more cameras (eg, indicates that the placement of virtual objects was successfully performed). Provide feedback to users. Providing improved feedback to the user (eg, providing sensor information that allows the user to perceive that a virtual object has been placed without disturbing the user interface with the displayed information. By doing so) it improves the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、デバイスは、1つ以上のカメラの視野の表現と同時に(例えば、第1のユーザーインターフェース領域内の異なる場所において表示された複数の制御のうち)第1の制御を、第1のユーザーインターフェース領域内の第1の場所において表示する(20046)。制御フェージング基準が満たされている(例えば、タッチ入力がタッチ感知面において検出されることなく、第1のユーザーインターフェース領域が、少なくとも閾値時間表示された場合に、制御フェージング基準が満たされている)との判定にしたがって、デバイスは、第1のユーザーインターフェース領域内に、1つ以上のカメラの視野の表現の表示を維持しながら、第1のユーザーインターフェース領域内に、(例えば、第1のユーザーインターフェース領域内に、他のすべての制御とともに)第1の制御を表示することを停止する(例えば、ユーザーが物理的環境に対してデバイスを移動させた場合、制御は再表示されない)(20048)。第1のユーザーインターフェース領域内に第1の制御を表示することなく、第1のユーザーインターフェース領域を表示している間、デバイスは、第1のユーザーインターフェース領域内の第1の場所に対応するタッチ感知面上のそれぞれの場所においてタッチ入力を検出する(20050)。タッチ入力の検出に応じて、デバイスは、第1の制御(例えば、「ステージングビューへ戻る」又は「オブジェクトをy軸の周りに回転させる」)に対応する動作を指定する音声出力を含む第5の音声警報を生成する(20052)。いくつかの実施形態では、デバイスはまた、タッチ入力を検出することに応じて、第1の場所において、第1の制御を再表示する。いくつかの実施形態では、ディスプレイ上の制御の通常の場所においてタッチ入力がなされると、制御を再表示し、制御を、現在選択されている制御にすることは、ユーザーがディスプレイ上の制御の場所を認識すると、制御にアクセスするために、一連のスワイプ入力を使用して利用可能な制御をスキャンするよりも、より迅速な手法を提供する。制御フェージング基準が満たされていることを判定することに応じて、制御を表示することを自動的に停止することは、制御の表示を停止するために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device has a first control (eg, among a plurality of controls displayed at different locations within the first user interface area) at the same time as the representation of the field of view of one or more cameras. Displayed at a first location within the first user interface area (20046). The control fading criteria are met (eg, the control fading criteria are met if the first user interface area is displayed for at least a threshold time without the touch input being detected on the touch sensitive surface). According to the determination, the device is in the first user interface area (eg, the first user) while maintaining the display of the visual field representation of one or more cameras in the first user interface area. Stop displaying the first control (with all other controls in the interface area) (eg, if the user moves the device to the physical environment, the controls will not reappear) (20004). .. While displaying the first user interface area without displaying the first control in the first user interface area, the device touches the first location in the first user interface area. Touch inputs are detected at each location on the sensing surface (20050). In response to the detection of touch input, the device includes a fifth audio output that specifies the action corresponding to the first control (eg, "return to staging view" or "rotate the object around the y-axis"). Generates a voice alert (20052). In some embodiments, the device also redisplays the first control in the first place in response to detecting the touch input. In some embodiments, when a touch input is made in the normal location of the control on the display, it is possible for the user to redisplay the control and make the control the currently selected control. Recognizing the location provides a faster way to access the controls than scanning the available controls using a series of swipe inputs. Automatically stopping the display of controls in response to determining that the control fading criteria are met reduces the number of inputs required to stop displaying the controls. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user device interface more efficient. It also reduces power consumption and improves device battery life by allowing users to use the device faster and more efficiently.

図20A~図20Fにおける動作が説明されている特定の順序は単なる例であり、説明された順序は、動作が実行され得る唯一の順序を示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、及び20000)に関して本明細書で説明された他の処理の詳細はまた、図20A~図20Fに関して上述された方法20000へ類似した方式でも適用可能であることが理解されるべきである。例えば、方法20000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、及び19000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It should be understood that the particular order in which the actions in FIGS. 20A-20F are described is merely an example and the described order is not intended to indicate the only order in which the actions can be performed. be. Those of skill in the art will recognize various techniques for reordering the operations described herein. In addition, details of the other processes described herein with respect to the other methods described herein (eg, methods 800, 900, 1000, 16000, 17000, 18000, and 20000) are also illustrated. It should be understood that a method similar to the method 20000 described above for 20A-20F is also applicable. For example, the contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and / or animations described above with reference to Method 20000 are optionally other methods described herein. The contacts, inputs, virtual objects, user interface areas, visual fields, tactile outputs, movements, and described herein with reference to (eg, methods 800, 900, 1000, 16000, 17000, 18000, and 19000). / Or have one or more of the features consisting of animation. For the sake of brevity, these details are not repeated herein.

図8A~図8E、図9A~図9D、図10A~図10D、図16A~図16G、図17A~図17D、図18A~図18I、図19A~図19H、及び図20A~図20Fを参照して上述された動作は、オプションで、図1A~図1Bに図示されたコンポーネントによって実施される。例えば、表示動作802、806、902、906、910、1004、1008、16004、17004、18002、19002、及び20002、検出動作804、904、908、17006、18004、19004、及び20004、変更動作910、受信動作1002、1006、16002、及び17002、停止動作17008、回転動作18006、更新動作19006、調節動作20006、及び生成動作20006は、オプションで、イベントソータ170、イベントレコグナイザ180、イベントハンドラ190によって実施される。イベントソータ170におけるイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136-1へ伝達する。アプリケーション136-1のそれぞれのイベントレコグナイザ180は、イベント情報を、それぞれのイベント定義186と比較し、タッチ感知面上の第1の場所における第1の接触(又は、デバイスの回転)が、ユーザーインターフェース上のオブジェクトの選択、又は、1つの向きから別の向きへのデバイスの回転のような所定のイベント又はサブイベントに対応するか否かを判定する。所定のそれぞれのイベント又はサブイベントが検出された場合、イベントレコグナイザ180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190を活性化する。イベントハンドラ190は、オプションで、アプリケーション内部状態192を更新するために、データ更新部176又はオブジェクト更新部177を使用するか、又は呼び出す。いくつかの実施形態では、イベントハンドラ190は、アプリケーションによって表示されているものを更新するために、それぞれのGUI更新部178へアクセスする。同様に、他の処理が、図1A~図1Bに描写されたコンポーネントに基づいてどのようにして実施され得るかが当業者に明らかになるだろう。 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and 20A-20F. The above-mentioned operations are optionally performed by the components illustrated in FIGS. 1A-1B. For example, display operation 802, 806, 902, 906, 910, 1004, 1008, 16004, 17004, 18002, 19002, and 20002, detection operation 804, 904, 908, 17006, 18004, 19004, and 20004, change operation 910, The receive operation 1002, 1006, 16002, and 17002, the stop operation 17008, the rotation operation 18006, the update operation 19006, the adjustment operation 20006, and the generation operation 20006 are optionally provided by the event sorter 170, the event recognizer 180, and the event handler 190. Will be implemented. The event monitor 171 in the event sorter 170 detects the contact on the touch-sensitive display 112, and the event dispatcher module 174 transmits the event information to the application 136-1. Each event recognizer 180 of application 136-1 compares the event information with the respective event definition 186 and the first contact (or device rotation) at the first location on the touch sensing surface is: Determines whether to respond to a given event or sub-event, such as selecting an object on the user interface or rotating a device from one orientation to another. When each given event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. The event handler 190 optionally uses or calls the data update unit 176 or the object update unit 177 to update the application internal state 192. In some embodiments, the event handler 190 accesses the respective GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes can be performed based on the components depicted in FIGS. 1A-1B.

前述した説明は、説明の目的のために、特定の実施形態に関して説明されている。しかしながら、上記の例示的な議論は、網羅的であるとも、又は、開示された正確な形態に本発明を限定するとも意図されていない。上記の教示を考慮して、多くの修正及び変形が可能である。実施形態は、本発明の原理及びその実際のアプリケーションを最も良く説明するために、そしてこれによって、当業者が、本発明及び説明された様々な実施形態を、考慮される特定の用途へ適合されているような様々な修正を用いて、最も良く使用することを可能にするために、選択され説明された。 The above description has been described for a particular embodiment for purposes of explanation. However, the above exemplary discussion is neither exhaustive nor intended to limit the invention to the exact forms disclosed. Many modifications and modifications are possible in light of the above teachings. Embodiments are adapted to best illustrate the principles of the invention and its practical application, and thereby those skilled in the art, the present invention and the various embodiments described, to the particular application considered. Selected and described to allow for best use, with various modifications such as.

Claims (18)

表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、
前記第1の入力の終わりを検出することと、
前記第1の入力の前記終わりを検出した後で、前記入力の前記終わりを検出する前の前記第1の入力の大きさに基づいて前記三次元オブジェクトを回転させ続けることであって、
前記三次元オブジェクトが前記第1の軸に対して回転しているとの判定にしたがって、前記第1の軸に対する前記オブジェクトの前記回転を、前記第1の軸に対する前記三次元オブジェクトの前記回転の大きさに比例する第1の量だけ減速させること、及び
前記三次元オブジェクトが前記第2の軸に対して回転しているとの判定にしたがって、前記第2の軸に対する前記オブジェクトの前記回転を、前記第2の軸に対する前記三次元オブジェクトの前記回転の大きさに比例する第2の量だけ減速させること、を含み、前記第2の量が、前記第1の量とは異なる、ことと、
を含む、方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Rotating by an amount exceeding the threshold rotation amount with respect to the axis of
Detecting the end of the first input and
After detecting the end of the first input, the three-dimensional object is continuously rotated based on the size of the first input before detecting the end of the input.
According to the determination that the 3D object is rotating with respect to the 1st axis, the rotation of the object with respect to the 1st axis is the rotation of the 3D object with respect to the 1st axis. Decelerate by a first amount proportional to size, and
According to the determination that the 3D object is rotating with respect to the 2nd axis, the rotation of the object with respect to the 2nd axis is the rotation of the 3D object with respect to the 2nd axis. That the second amount is different from the first amount, including decelerating by a second amount proportional to the magnitude.
Including, how.
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、
前記第1の入力が、第1の方向へのタッチ感知面にわたる接触の第1の移動を含み、前記第1の方向への前記接触の前記第1の移動が、前記仮想オブジェクトの前記表現を前記第1の軸に対して回転させる第1の基準を満足するとの判定にしたがって、前記第1の入力が前記三次元オブジェクトを前記第1の軸の周りで回転させる要求に対応していると判定することであって、前記第1の基準が満たされるためには前記第1の入力が前記第1の方向への第1の閾値移動量を超える移動を含む、という要件を前記第1の基準が含む、ことと、
前記第1の入力が、第2の方向への前記タッチ感知面にわたる前記接触の第2の移動を含み、前記第2の方向の前記接触の前記第2の移動が、前記仮想オブジェクトの前記表現を前記第2の軸に対して回転させる第2の基準を満足するとの判定にしたがって、前記第1の入力が前記三次元オブジェクトを前記第2の軸の周りで回転させる要求に対応していると判定することであって、前記第2の基準が満たされるためには前記第1の入力が前記第2の方向への第2の閾値移動量を超える移動を含む、という要件を前記第2の基準が含み、前記第1の閾値が、前記第2の閾値より大きい、ことと、
を含む方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Rotating by an amount exceeding the threshold rotation amount with respect to the axis of
The first input comprises a first movement of the contact across the touch-sensitive surface in the first direction, and the first movement of the contact in the first direction represents the representation of the virtual object. According to the determination that the first criterion of rotation with respect to the first axis is satisfied, the first input corresponds to the request to rotate the three-dimensional object around the first axis. The first requirement is to determine that, in order for the first criterion to be met, the first input includes movement that exceeds the first threshold movement amount in the first direction. The criteria include, and
The first input includes a second movement of the contact across the touch-sensitive surface in a second direction, and the second movement of the contact in the second direction is the representation of the virtual object. The first input corresponds to the request to rotate the three-dimensional object around the second axis according to the determination that the second criterion of rotating the object with respect to the second axis is satisfied. The second criterion is that the first input includes a movement exceeding the second threshold movement amount in the second direction in order for the second criterion to be satisfied. The criteria of the above include that the first threshold value is larger than the second threshold value.
Including , how.
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、を含み、
前記第1の軸に対する前記仮想三次元オブジェクトの回転が、前記第1の入力の第1の入力パラメータの特性値と、前記第1の軸の周りで前記仮想三次元オブジェクトに適用される回転量との間の第1の対応度で発生し、
前記第2の軸に対する前記仮想三次元オブジェクトの回転が、第2の入力ジェスチャの前記第1の入力パラメータの前記特性値と、前記第2の軸の周りで仮想三次元オブジェクトに適用される回転量との間の第2の対応度で発生し、
前記第1の対応度は、前記第2の対応度よりも、前記第1の入力パラメータに対する前記仮想三次元オブジェクトの小さい回転を伴う方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Including rotating by an amount exceeding the threshold rotation amount with respect to the axis of
The rotation of the virtual 3D object with respect to the 1st axis is the characteristic value of the 1st input parameter of the 1st input and the amount of rotation applied to the virtual 3D object around the 1st axis. Occurs in the first degree of correspondence between and
The rotation of the virtual 3D object with respect to the 2nd axis is applied to the virtual 3D object around the 2nd axis with the characteristic value of the 1st input parameter of the 2nd input gesture. Occurs in a second degree of correspondence with the quantity,
The method, wherein the first degree of correspondence involves a smaller rotation of the virtual three-dimensional object with respect to the first input parameter than the second degree of correspondence.
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、
前記第1の入力の終わりを検出することと、
前記第1の入力の前記終わりを検出した後で、
前記三次元オブジェクトが前記第1の軸に対して個別の回転閾値を超えて回転したとの判定にしたがって、前記第1の軸に対する前記三次元オブジェクトの前記回転の少なくとも一部分を逆転させることと、
前記三次元オブジェクトが前記第1の軸に対して前記個別の回転閾値を超えて回転していないとの判定にしたがって、前記第1の軸に対する前記三次元オブジェクトの前記回転を逆転させることを見合わせることと、
を含む方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Rotating by an amount exceeding the threshold rotation amount with respect to the axis of
Detecting the end of the first input and
After detecting the end of the first input,
Reversing at least a portion of the rotation of the 3D object with respect to the 1st axis according to the determination that the 3D object has rotated beyond the individual rotation threshold with respect to the 1st axis.
The reversal of the rotation of the 3D object with respect to the 1st axis is postponed according to the determination that the 3D object has not rotated beyond the individual rotation threshold with respect to the 1st axis. That and
Including , how.
前記第1の入力が、前記第1の軸及び前記第2の軸と異なる第3の軸の周りで前記三次元オブジェクトを回転させる要求に対応しているとの判定にしたがって、前記第3の軸に対して前記仮想三次元オブジェクトを回転させることを見合わせることを含む、請求項1から3のいずれか一項に記載の方法。 According to the determination that the first input corresponds to the request to rotate the three-dimensional object around the first axis and a third axis different from the second axis, the third The method according to any one of claims 1 to 3, comprising suspending the rotation of the virtual three-dimensional object with respect to an axis. 前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトによって投影される影の表現を表示することと、
前記第1の軸及び/又は前記第2の軸に対する前記仮想三次元オブジェクトの前記回転にしたがって、前記影の前記表現の形状を変化させることと、を含む、請求項1からのいずれか一項に記載の方法。
Displaying the representation of the shadow projected by the virtual three-dimensional object while displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area.
Any one of claims 1-5 , comprising changing the shape of the representation of the shadow in accordance with the rotation of the virtual three-dimensional object with respect to the first axis and / or the second axis. The method described in the section.
前記第1のユーザーインターフェース領域内で前記仮想三次元オブジェクトを回転させている間に、
前記仮想三次元オブジェクトが、前記仮想三次元オブジェクトの所定の底部を明らかにする第2の視点で表示されているとの判定にしたがって、前記仮想三次元オブジェクトの前記第2の視点の前記表現とともに前記影の前記表現を表示することを見合わせることを含む、請求項に記載の方法。
While rotating the virtual 3D object within the first user interface area
With the representation of the second viewpoint of the virtual three-dimensional object, according to the determination that the virtual three-dimensional object is displayed with a second viewpoint revealing a predetermined bottom of the virtual three-dimensional object. The method of claim 6 , comprising refraining from displaying said representation of the shadow.
前記第1のユーザーインターフェース領域内で前記仮想三次元オブジェクトを回転させた後で、前記第1のユーザーインターフェース領域内で前記仮想三次元オブジェクトをリセットする要求に対応する第2の入力を検出することと、
前記第2の入力を検出したことに応答して、前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトの所定の元の視点の表現を表示することと、を含む、請求項1からのいずれか一項に記載の方法。
Detecting a second input corresponding to a request to reset the virtual 3D object in the 1st user interface area after rotating the virtual 3D object in the 1st user interface area. When,
Claims 1-7 , comprising displaying a representation of a predetermined original viewpoint of the virtual three-dimensional object within the first user interface area in response to detecting the second input. The method described in any one of the above.
前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトを表示している間に、前記仮想三次元オブジェクトをサイズ変更する要求に対応する第3の入力を検出することと、
前記第3の入力を検出したことに応答して、前記入力の大きさにしたがって、前記第1のユーザーインターフェース領域内で前記仮想三次元オブジェクトの前記表現のサイズを調整することと、を含む、請求項1からのいずれか一項に記載の方法。
While displaying the virtual 3D object in the first user interface area, detecting a third input corresponding to a request to resize the virtual 3D object.
In response to detecting the third input, the size of the representation of the virtual three-dimensional object is adjusted within the first user interface area according to the magnitude of the input. The method according to any one of claims 1 to 8 .
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、
前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトを表示している間に、前記仮想三次元オブジェクトをサイズ変更する要求に対応する第3の入力を検出することと、
前記第3の入力を検出したことに応答して、前記入力の大きさにしたがって、前記第1のユーザーインターフェース領域内で前記仮想三次元オブジェクトの前記表現のサイズを調整することと、
前記第1のユーザーインターフェース領域内で前記仮想三次元オブジェクトの前記表現の前記サイズを調整している間に、前記仮想三次元オブジェクトのサイズが前記仮想三次元オブジェクトの所定のデフォルト表示サイズに達したことを検出することと、
前記仮想三次元オブジェクトのサイズが前記仮想三次元オブジェクトの前記所定のデフォルト表示サイズに達したことを検出したことに応答して、前記仮想三次元オブジェクトが前記所定のデフォルト表示サイズで表示されていることを示す触知出力を生成することと、
を含む方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Rotating by an amount exceeding the threshold rotation amount with respect to the axis of
While displaying the virtual 3D object in the first user interface area, detecting a third input corresponding to a request to resize the virtual 3D object.
In response to detecting the third input, adjusting the size of the representation of the virtual three-dimensional object within the first user interface area according to the magnitude of the input.
While adjusting the size of the representation of the virtual 3D object within the first user interface area, the size of the virtual 3D object has reached a predetermined default display size of the virtual 3D object. To detect that and
The virtual 3D object is displayed in the predetermined default display size in response to detecting that the size of the virtual 3D object has reached the predetermined default display size of the virtual 3D object. To generate a tactile output that indicates that
Including , how.
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスと、1つ以上のカメラとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、
前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトの第3の視点の表現を表示している間に、1つ以上のカメラの視野を含む第2のユーザーインターフェース領域内に前記仮想三次元オブジェクトを表示する要求に対応する第4の入力を検出することと、
前記第4の入力を検出したことに応答して、前記表示生成コンポーネントを介して、前記第2のユーザーインターフェース領域に含まれる前記1つ以上のカメラの前記視野の少なくとも一部分の上に前記仮想オブジェクトの表現を表示することと、を含み、前記1つ以上のカメラの前記視野が、前記1つ以上のカメラが位置している物理的環境のビューであり、前記仮想オブジェクトの前記表現を表示することが、
前記第1の軸の周りで所定の角度まで前記仮想三次元オブジェクトを回転させることと、
前記第2の軸に対する前記仮想三次元オブジェクトの現在角度を維持することと、を含む、
方法。
In a device having a display generation component, one or more input devices including a touch sensitive surface, and one or more cameras.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Rotating by an amount exceeding the threshold rotation amount with respect to the axis of
While displaying the representation of the third viewpoint of the virtual three-dimensional object in the first user interface area, the virtual three-dimensional object is contained in a second user interface area including the field of view of one or more cameras. To detect the fourth input corresponding to the request to display the object,
In response to detecting the fourth input, the virtual object over at least a portion of the field of view of the one or more cameras contained in the second user interface area via the display generation component. The field of view of the one or more cameras is a view of the physical environment in which the one or more cameras are located, including displaying the representation of the virtual object. That
Rotating the virtual 3D object to a predetermined angle around the first axis,
Including maintaining the current angle of the virtual 3D object with respect to the second axis.
Method.
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、
前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトの第4の視点の表現を表示している間に、前記仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースに戻る要求に対応する第5の入力を検出することと、
前記第5の入力を検出したことに応答して、
前記仮想三次元オブジェクトを回転させて、前記仮想三次元オブジェクトの前記二次元表現に対応する前記仮想三次元オブジェクトの視点を示すことと、
前記仮想三次元オブジェクトが前記仮想三次元オブジェクトの前記二次元表現に対応する個別の視点を示すように回転した後で、前記仮想三次元オブジェクトの前記二次元表現を表示することと、
を含む方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Rotating by an amount exceeding the threshold rotation amount with respect to the axis of
Respond to a request to return to a two-dimensional user interface that includes a two-dimensional representation of the virtual three-dimensional object while displaying a fourth-viewpoint representation of the virtual three-dimensional object within the first user interface region. Detecting the fifth input and
In response to detecting the fifth input,
Rotating the virtual three-dimensional object to show the viewpoint of the virtual three-dimensional object corresponding to the two-dimensional representation of the virtual three-dimensional object.
Displaying the two-dimensional representation of the virtual three-dimensional object after the virtual three-dimensional object has been rotated to indicate the individual viewpoint corresponding to the two-dimensional representation of the virtual three-dimensional object.
Including , how.
方法であって、表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、を含み、
前記方法がさらに、
前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示する前に、個別の視点からの前記仮想三次元オブジェクトのビューの表現を含む前記仮想三次元オブジェクトの表現を含むユーザーインターフェースを表示することと、
前記仮想三次元オブジェクトの前記表現を表示している間に、前記仮想三次元オブジェクトを表示する要求を検出することと、
前記仮想三次元オブジェクトを表示する前記要求を検出したことに応答して、前記仮想三次元オブジェクトの前記表現の表示を、前記仮想三次元オブジェクトの前記表現の前記個別の視点に一致するように回転した前記仮想三次元オブジェクトで置き換えることと、
を含む方法。
A method, in a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Including rotating by an amount exceeding the threshold rotation amount with respect to the axis of
The above method further
Before displaying the representation of the first viewpoint of the virtual three-dimensional object, display a user interface that includes a representation of the virtual three-dimensional object that includes a representation of the view of the virtual three-dimensional object from an individual viewpoint. That and
Detecting a request to display the virtual 3D object while displaying the representation of the virtual 3D object.
In response to detecting the request to display the virtual 3D object, the display of the representation of the virtual 3D object is rotated to match the individual viewpoint of the representation of the virtual 3D object. Replacing with the above virtual 3D object
Including , how.
方法であって、表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、を含み、
前記方法がさらに、
前記第1のユーザーインターフェース領域を表示する前に、前記仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示することと、
前記仮想三次元オブジェクトの前記二次元表現を含む前記二次元ユーザーインターフェースを表示している間に、前記仮想三次元オブジェクトの前記二次元表現に対応した前記タッチ感知面上の場所でプレビュー基準を満たすタッチ入力の第1の部分を検出することと、
前記プレビュー基準を満たす前記タッチ入力の前記第1の部分を検出したことに応答して、前記仮想三次元オブジェクトの前記二次元表現より大きい前記仮想三次元オブジェクトのプレビューを表示することと、を含む方法。
A method, in a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Including rotating by an amount exceeding the threshold rotation amount with respect to the axis of
The above method further
Before displaying the first user interface area, displaying the two-dimensional user interface including the two-dimensional representation of the virtual three-dimensional object.
While displaying the two-dimensional user interface containing the two-dimensional representation of the virtual three-dimensional object, the preview criterion is satisfied at a location on the touch-sensitive surface corresponding to the two-dimensional representation of the virtual three-dimensional object. To detect the first part of the touch input and
In response to detecting the first portion of the touch input that meets the preview criteria, including displaying a preview of the virtual three-dimensional object that is larger than the two-dimensional representation of the virtual three-dimensional object. , How.
前記仮想三次元オブジェクトの前記プレビューを表示している間に、前記タッチ入力の第2の部分を検出することと、
前記タッチ入力の前記第2の部分を検出したことに応答して、
前記タッチ入力の前記第2の部分がメニュー表示基準を満足するとの判定にしたがって、前記仮想オブジェクトに関連する複数の動作に対応する複数の選択可能なオプションを表示することと、
前記タッチ入力の前記第2の部分がステージング基準を満足するとの判定にしたがって、前記仮想三次元オブジェクトの前記二次元表現を含む前記二次元ユーザーインターフェースの表示を、前記仮想三次元オブジェクトを含む前記第1のユーザーインターフェースで置き換えることと、を含む、請求項14に記載の方法。
To detect the second part of the touch input while displaying the preview of the virtual 3D object.
In response to detecting the second part of the touch input,
Displaying a plurality of selectable options corresponding to a plurality of actions related to the virtual object according to the determination that the second portion of the touch input satisfies the menu display criteria.
According to the determination that the second portion of the touch input satisfies the staging criteria, the display of the two-dimensional user interface including the two-dimensional representation of the virtual three-dimensional object is displayed on the second portion including the virtual three-dimensional object. 14. The method of claim 14 , comprising replacing with the user interface of 1.
表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するデバイスにおいて、
第1のユーザーインターフェース領域に仮想三次元オブジェクトの第1の視点の表現を前記表示生成コンポーネントにより表示することと、
ディスプレイ上の前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記第1の視点の前記表現を表示している間に、前記仮想三次元オブジェクトの前記第1の視点からは視認不能である前記仮想三次元オブジェクトの一部分を表示するための、表示に対して前記仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量であって、前記第1の軸に対する閾値回転量を上回る前記仮想三次元オブジェクトの回転を制限する、移動に対する限界により制約された量だけ、前記第1の軸に対して前記仮想三次元オブジェクトを回転させることと、
前記第1の入力が、前記第1の軸とは異なる第2の軸の周りで前記三次元オブジェクトを回転させる要求に対応するとの判定にしたがって、前記第1の入力の大きさに基づいて決定された量だけ前記第2の軸に対して前記仮想三次元オブジェクトを回転させることであって、個別の閾値を超える大きさを有する入力について、前記デバイスが、前記仮想三次元オブジェクトを前記第2の軸に対して前記閾値回転量を超える量だけ回転させることと、を含み、
前記第1のユーザーインターフェースが、複数の制御要素を含み、前記方法がさらに
前記第1のユーザーインターフェースを表示する前に、前記仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示することと、
前記第1のユーザーインターフェースに前記仮想三次元オブジェクトを表示する要求を検出したことに応答して、
前記仮想三次元オブジェクトに関連する1つ以上の制御要素のセットを表示することなく、前記第1のユーザーインターフェースに前記仮想三次元オブジェクトを表示することと、
前記第1のユーザーインターフェースに前記仮想三次元オブジェクトを表示した後で、前記1つ以上の制御要素のセットを表示することと、を含む、
方法。
In a device having a display generation component and one or more input devices including a touch sensitive surface.
Displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area by the display generation component, and
While displaying the representation of the first viewpoint of the virtual three-dimensional object in the first user interface area on the display, it is invisible from the first viewpoint of the virtual three-dimensional object. To detect the first input corresponding to the request to rotate the virtual 3D object with respect to the display for displaying a part of the virtual 3D object.
In response to detecting the first input,
An amount determined based on the size of the first input according to the determination that the first input corresponds to the requirement to rotate the three-dimensional object around the first axis. Rotating the virtual 3D object with respect to the 1st axis by an amount constrained by the limit to movement, which limits the rotation of the virtual 3D object in excess of the threshold rotation amount with respect to the 1st axis. When,
Determined based on the size of the first input, according to the determination that the first input corresponds to a request to rotate the three-dimensional object around a second axis different from the first axis. By rotating the virtual 3D object with respect to the second axis by a given amount, the device transfers the virtual 3D object to the second for an input having a magnitude exceeding an individual threshold. Including rotating by an amount exceeding the threshold rotation amount with respect to the axis of
The first user interface comprises a plurality of control elements, and the method further comprises.
Before displaying the first user interface, displaying the two-dimensional user interface including the two-dimensional representation of the virtual three-dimensional object.
In response to detecting a request to display the virtual 3D object in the first user interface,
Displaying the virtual 3D object in the first user interface without displaying the set of one or more control elements associated with the virtual 3D object.
Displaying the virtual three-dimensional object in the first user interface and then displaying the set of one or more control elements.
Method.
表示生成コンポーネントと、
タッチ感知面を含む1つ以上の入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から16のいずれか一項に記載の方法を実行するための命令を含む、コンピュータシステム。
Display generation component and
With one or more input devices, including a touch-sensitive surface,
With one or more processors
It comprises a memory storing one or more programs, and the one or more programs are configured to be executed by the one or more processors, and the one or more programs are claimed 1. A computer system comprising instructions for performing the method according to any one of 16 to 16 .
命令を含むプログラムであって、前記命令が、表示生成コンポーネントとタッチ感知面を含む1つ以上の入力デバイスとを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに、請求項1から16のいずれか一項に記載の方法を実行させる、プログラム。 Claims 1-16 to a computer system comprising instructions, wherein the instructions are executed by a computer system comprising a display generation component and one or more input devices including a touch sensitive surface. A program that executes the method described in any one of the above.
JP2020540320A 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior of 3D models Active JP7039714B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022036354A JP7397899B2 (en) 2018-01-24 2022-03-09 Devices, methods and graphical user interfaces for system-wide behavior of 3D models
JP2023204027A JP2024026250A (en) 2018-01-24 2023-12-01 Devices, methods and graphical user interfaces for system-wide behavior of 3D models

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201862621529P 2018-01-24 2018-01-24
US62/621,529 2018-01-24
US201862679951P 2018-06-03 2018-06-03
US62/679,951 2018-06-03
DKPA201870346 2018-06-11
DKPA201870346A DK201870346A1 (en) 2018-01-24 2018-06-11 Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
US16/145,035 2018-09-27
US16/145,035 US11099707B2 (en) 2018-01-24 2018-09-27 Devices, methods, and graphical user interfaces for system-wide behavior for 3D models
PCT/US2019/014791 WO2019147699A2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior for 3d models

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022036354A Division JP7397899B2 (en) 2018-01-24 2022-03-09 Devices, methods and graphical user interfaces for system-wide behavior of 3D models

Publications (2)

Publication Number Publication Date
JP2021518935A JP2021518935A (en) 2021-08-05
JP7039714B2 true JP7039714B2 (en) 2022-03-22

Family

ID=67395660

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020540320A Active JP7039714B2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior of 3D models
JP2022036354A Active JP7397899B2 (en) 2018-01-24 2022-03-09 Devices, methods and graphical user interfaces for system-wide behavior of 3D models
JP2023204027A Pending JP2024026250A (en) 2018-01-24 2023-12-01 Devices, methods and graphical user interfaces for system-wide behavior of 3D models

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022036354A Active JP7397899B2 (en) 2018-01-24 2022-03-09 Devices, methods and graphical user interfaces for system-wide behavior of 3D models
JP2023204027A Pending JP2024026250A (en) 2018-01-24 2023-12-01 Devices, methods and graphical user interfaces for system-wide behavior of 3D models

Country Status (4)

Country Link
JP (3) JP7039714B2 (en)
KR (2) KR20220065899A (en)
AU (3) AU2019212150B2 (en)
WO (1) WO2019147699A2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3993449A1 (en) * 2020-11-02 2022-05-04 Inter IKEA Systems B.V. Method and device for communicating a soundscape in an environment
KR102442715B1 (en) * 2020-12-02 2022-09-14 한국전자기술연구원 Apparatus and method for reproducing augmented reality image based on divided rendering image

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046326A (en) 2002-07-09 2004-02-12 Dainippon Screen Mfg Co Ltd Device and method for displaying picture and program
JP2007047294A (en) 2005-08-08 2007-02-22 Nippon Hoso Kyokai <Nhk> Stereoscopic image display device
US20110041098A1 (en) 2009-08-14 2011-02-17 James Thomas Kajiya Manipulation of 3-dimensional graphical objects or view in a multi-touch display
JP2012089112A (en) 2010-09-22 2012-05-10 Nikon Corp Image display device
US20120229450A1 (en) 2011-03-09 2012-09-13 Lg Electronics Inc. Mobile terminal and 3d object control method thereof
JP2013214944A (en) 2012-02-29 2013-10-17 Jvc Kenwood Corp Image processing apparatus, image processing method, and image processing program
JP2014089697A (en) 2012-10-05 2014-05-15 Fine Co Ltd Architectural image display device, architectural image display method, and computer program
JP2015176450A (en) 2014-03-17 2015-10-05 富士フイルム株式会社 Augmented reality providing system, method, and program
WO2016152388A1 (en) 2015-03-23 2016-09-29 株式会社村田製作所 Touch-type input device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3761106B2 (en) * 1996-03-04 2006-03-29 シャープ株式会社 Image forming apparatus having magnification setting device
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US9244562B1 (en) * 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
US20130234926A1 (en) 2012-03-07 2013-09-12 Qualcomm Incorporated Visually guiding motion to be performed by a user
WO2013169882A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
US20140282220A1 (en) * 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US9286727B2 (en) * 2013-03-25 2016-03-15 Qualcomm Incorporated System and method for presenting true product dimensions within an augmented real-world setting
US9245387B2 (en) * 2013-04-12 2016-01-26 Microsoft Technology Licensing, Llc Holographic snap grid
CN105247573B (en) 2013-06-11 2018-11-30 高通股份有限公司 For capturing the method and apparatus for being suitable for the compact representation of three dimensional object of object detection
JP2015001875A (en) 2013-06-17 2015-01-05 ソニー株式会社 Image processing apparatus, image processing method, program, print medium, and print-media set
US10175483B2 (en) * 2013-06-18 2019-01-08 Microsoft Technology Licensing, Llc Hybrid world/body locked HUD on an HMD
US9436369B2 (en) * 2014-09-26 2016-09-06 Disney Enterprises, Inc. Touch interface for precise rotation of an object
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046326A (en) 2002-07-09 2004-02-12 Dainippon Screen Mfg Co Ltd Device and method for displaying picture and program
JP2007047294A (en) 2005-08-08 2007-02-22 Nippon Hoso Kyokai <Nhk> Stereoscopic image display device
US20110041098A1 (en) 2009-08-14 2011-02-17 James Thomas Kajiya Manipulation of 3-dimensional graphical objects or view in a multi-touch display
JP2012089112A (en) 2010-09-22 2012-05-10 Nikon Corp Image display device
US20120229450A1 (en) 2011-03-09 2012-09-13 Lg Electronics Inc. Mobile terminal and 3d object control method thereof
JP2013214944A (en) 2012-02-29 2013-10-17 Jvc Kenwood Corp Image processing apparatus, image processing method, and image processing program
JP2014089697A (en) 2012-10-05 2014-05-15 Fine Co Ltd Architectural image display device, architectural image display method, and computer program
JP2015176450A (en) 2014-03-17 2015-10-05 富士フイルム株式会社 Augmented reality providing system, method, and program
WO2016152388A1 (en) 2015-03-23 2016-09-29 株式会社村田製作所 Touch-type input device

Also Published As

Publication number Publication date
JP2021518935A (en) 2021-08-05
KR20200110788A (en) 2020-09-25
KR20220065899A (en) 2022-05-20
WO2019147699A2 (en) 2019-08-01
AU2019212150A1 (en) 2020-08-20
WO2019147699A8 (en) 2020-08-06
JP2022091798A (en) 2022-06-21
AU2022201389B2 (en) 2023-10-12
JP2024026250A (en) 2024-02-28
AU2022201389A1 (en) 2022-03-24
AU2024200149A1 (en) 2024-01-25
AU2019212150B2 (en) 2021-12-16
WO2019147699A3 (en) 2019-09-19
KR102397481B1 (en) 2022-05-12
JP7397899B2 (en) 2023-12-13

Similar Documents

Publication Publication Date Title
US20210333979A1 (en) Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
JP7097991B2 (en) Devices and methods for measuring using augmented reality
US11922584B2 (en) Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
JP6745852B2 (en) Devices, methods, and graphical user interfaces for system-wide behavior of 3D models
US20220335697A1 (en) Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments
AU2019101597B4 (en) Devices, methods, and graphical user interfaces for system-wide behavior for 3D models
JP7397899B2 (en) Devices, methods and graphical user interfaces for system-wide behavior of 3D models
JP7467534B2 (en) DEVICE AND METHOD FOR MEASURING USING AUGMENTED REALITY - Patent application

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220309

R150 Certificate of patent or registration of utility model

Ref document number: 7039714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150